JP7355050B2 - 車両制御装置、車両制御方法およびプログラム - Google Patents

車両制御装置、車両制御方法およびプログラム Download PDF

Info

Publication number
JP7355050B2
JP7355050B2 JP2021034590A JP2021034590A JP7355050B2 JP 7355050 B2 JP7355050 B2 JP 7355050B2 JP 2021034590 A JP2021034590 A JP 2021034590A JP 2021034590 A JP2021034590 A JP 2021034590A JP 7355050 B2 JP7355050 B2 JP 7355050B2
Authority
JP
Japan
Prior art keywords
driving vehicle
vehicle
stop
automatic driving
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021034590A
Other languages
English (en)
Other versions
JP2022135028A (ja
Inventor
宏充 小林
泰造 増田
佑太 片岡
美樹 野本
佳輝 上田
聡 小見
裕己 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021034590A priority Critical patent/JP7355050B2/ja
Priority to US17/573,757 priority patent/US11938971B2/en
Priority to CN202210197518.3A priority patent/CN115092120A/zh
Publication of JP2022135028A publication Critical patent/JP2022135028A/ja
Application granted granted Critical
Publication of JP7355050B2 publication Critical patent/JP7355050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00253Taxi operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0017Planning or execution of driving tasks specially adapted for safety of other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/041Potential occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/049Number of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4046Behavior, e.g. aggressive or erratic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は車両制御装置、車両制御方法およびプログラムに関する。
自動運転車両を遠隔操作により駐車スペースに駐車させる際、或いは、自動運転車両を遠隔操作により駐車スペースから出庫させる際に、車外にいる車両のユーザが、移動している自動運転車両をジェスチャによって停止し得るようにした自動運転車両の制御装置が公知である(例えば特許文献1を参照)。この場合、自動運転車両の停止を要求するジェスチャが予め決められており、車両のユーザのジェスチャが、この予め決められているジェスチャと認識されたときに、自動運転車両を停止させるようにしている。
特開2017-121865号公報
一方、例えば、自動運転車両が運行指令に基づいて自律走行している場合、何らかの災害が発生したときに、この自動運転車両を被災者の救援に利用することが考えられる。この場合、連絡手段が手元にないとか、電源が確保できない等との理由により、被災者がネットワークを通じて自動運転車両による救援の要請を行えない場合が生じ、このような場合には、運行指令に基づいて自律走行を行なっている自動運転車両が近くを走行しているときには、自動運転車両に乗せてもらうために、ジェスチャでもって自動運転車両を停止させることができることが好ましい。
しかしながら、ジェスチャでもって自動運転車両を停止させることができるようなシステムを構築すると、災害の発生とは関係なく平常時であっても、予め設置されている停留所間において自動運転車両が頻繁に停止させられることになり、平常時に、予め設定された時間スケジュールに従った自動運転車両の正常な運行ができなくなるという問題がある。
そこで、本発明によれば、運行指令に基づいて自律走行を行う自動運転車両の車両制御装置において、
自動運転車両の停止を要求するときの人の基準ジェスチャ画像に関するデータを事前に記憶している基準データ記憶部と
自動運転車両の自律走行中に、自動運転車両の周りに人がいることを認識する認識部と、
認識部により自動運転車両の周りに人がいることが認識されたときに、自動運転車両の周りにいる人のジェスチャ画像に関するデータを記憶する走行中データ記憶部と、
基準データ記憶部に記憶された基準ジェスチャ画像に関するデータと走行中データ記憶部に記憶されたジェスチャ画像に関するデータとの照合作業を行うことにより、自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであるか否かを判別する判別部と
自動運転車両の走行地域に関係する災害が発生しているか否かを判定する災害発生判定部とを具備しており、
判別部により、自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであると判別されたときに、災害発生判定部により災害が発生していると判定された場合には、自動運転車両を自動運転車両の停止を要求している人の周囲で停車させ、災害発生判定部により災害が発生していないと判定されたときには、自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであったとしても自動運転車両を自動運転車両の停止を要求している人の周囲で停車させない車両制御装置が提供される。
また、本発明によれば、運行指令に基づいて自律走行を行う自動運転車両の車両制御装置において、
自動運転車両の停止を要求するときの人の基準ジェスチャ画像に関するデータおよび自動運転車両の停止を要求するときの基準の言葉に関するデータを事前に記憶している基準データ記憶部と、
自動運転車両の走行地域に関係する災害が発生しているか否かを判定する災害発生判定部と、
災害発生判定部により災害が発生していると判定されたときに、自動運転車両の自律走行中に、自動運転車両の周りに人がいることを認識する認識部と、
災害発生判定部により災害が発生していると判定されかつ認識部により自動運転車両の周りに人がいることが認識されたときに、自動運転車両の周りにいる人のジェスチャ画像に関するデータおよび自動運転車両の周りにいる人の言葉に関するデータを記憶する走行中データ記憶部と、
災害発生判定部により災害が発生していると判定されたときに、基準データ記憶部に記憶された基準ジェスチャ画像に関するデータと走行中データ記憶部に記憶されたジェスチャ画像に関するデータとの照合作業および基準データ記憶部に記憶された基準の言葉に関するデータと走行中データ記憶部に記憶された言葉に関するデータとの照合作業の少なくとも一方の照合作業を行うことにより、自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであるか否か、又は、自動運転車両の周りにいる人の言葉が、自動運転車両の停止を要求している言葉であるか否かを判別する判別部とを具備しており、
判別部により、自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであると判別されたとき、又は、自動運転車両の周りにいる人の言葉が、自動運転車両の停止を要求している言葉であると判別されたときに、自動運転車両を自動運転車両の停止を要求している人の周囲で停車させる車両制御装置が提供される。
更に、本発明によれば、運行指令に基づいて自律走行を行う自動運転車両の車両制御方法において、自動運転車両に搭載されたコンピュータが、
自動運転車両の停止を要求するときの人の基準ジェスチャ画像に関するデータを事前に記憶し、
自動運転車両の自律走行中に、自動運転車両の周りに人がいることを認識したときに、自動運転車両の周りにいる人のジェスチャ画像に関するデータを記憶し、
記憶された基準ジェスチャ画像に関するデータと記憶されたジェスチャ画像に関するデータとの照合作業を行うことにより、自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであるか否かを判別し、
自動運転車両の走行地域に関係する災害が発生しているか否かを判定し、
自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであると判別されたときに、上述の災害が発生していると判定された場合には、自動運転車両を自動運転車両の停止を要求している人の周囲で停車させ、上述の災害が発生していないと判定されたときには、自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであったとしても自動運転車両を自動運転車両の停止を要求している人の周囲で停車させない車両制御方法が提供される。
更に、本発明によれば、
運行指令に基づいて自律走行を行う自動運転車両を制御し、
自動運転車両の停止を要求するときの人の基準ジェスチャ画像に関するデータを事前に記憶し、
自動運転車両の自律走行中に、自動運転車両の周りに人がいることを認識したときに、自動運転車両の周りにいる人のジェスチャ画像に関するデータを記憶し、
記憶された基準ジェスチャ画像に関するデータと記憶されたジェスチャ画像に関するデータとの照合作業を行うことにより、自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであるか否かを判別し、
自動運転車両の走行地域に関係する災害が発生しているか否かを判定し、
自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであると判別されたときに、上述の災害が発生していると判定された場合には、自動運転車両を自動運転車両の停止を要求している人の周囲で停車させ、上述の災害が発生していないと判定されたときには、自動運転車両の周りにいる人のジェスチャが、自動運転車両の停止を要求しているジェスチャであったとしても自動運転車両を自動運転車両の停止を要求している人の周囲で停車させないよう、自動運転車両に搭載されたコンピュータを機能させるためのプログラムが提供される。
1,3,4番目の発明では、災害発生時に限って、ジェスチャにより自動運転車両を停止し得るようにし、それにより、平常時に、予め設定された時間スケジュールに従った自動運転車両の正常な運行が可能となる。
2番目の発明では、1番目の発明の効果に加え、言葉でもっても自動運転車両を停止させることが可能となる。
図1は、図解的に表した車両とサーバを示す図である。 図2は、車両を自律走行させるための機能構成図である。 図3は、車両の運転制御を行うためのフローチャートである。 図4は、ジェスチャ画像を図解的に示す図である 図5は、基準データ記憶処理を実行するためのフローチャートである。 図6は、データ記憶処理を実行するためのフローチャートである。 図7は、車両停止判別処理を実行するためのフローチャートである。 図8は、車両停止要求処理を実行するためのフローチャートである。 図9は、本発明による車両制御装置の一実施例の機能構成図である。 図10は、データ記憶処理を実行するためのフローチャートである。 図11は、音声データ記憶処理を実行するためのフローチャートである。 図12は、車両停止判別処理を実行するためのフローチャートである。 図13は、車両停止要求処理を実行するためのフローチャートである。 図14は、車両停止要求処理を実行するためのフローチャートである。 図15は、本発明による車両制御装置の別の実施例の機能構成図である。 図16は、車両停止要求処理を実行するためのフローチャートである。 図17は、車両停止要求処理を実行するためのフローチャートである。 図18は、車両停止要求処理を実行するためのフローチャートである。 図19は、車両停止要求処理を実行するためのフローチャートである。
図1を参照すると、1は車両を図解的に示している。本発明による実施例では、この車両1は、予め設定された領域内で、予め設定された走行経路に沿って自律走行せしめられる循環バスからなる。また、図1において、2は車両1の駆動輪に駆動力を与えるための車両駆動部、3は車両1を制動するための制動装置、4は車両1を操舵するための操舵装置、5は車両1内に搭載された電子制御ユニットを夫々示す。図1に示されるように、電子制御ユニット5はデジタルコンピュータからなり、双方向性バス6によって互いに接続されたCPU(マイクロプロセッサ)7、ROMおよびRAMからなるメモリ8および入出力ポート9を具備する。
一方、図1に示されるように、車両1には、位置情報センサ10、環境情報センサ11、地図データ記憶装置12および検知部13が設けられている。位置情報センサ10は、車両1の現在位置を検出するためのセンサであり、この位置情報センサ10は、例えば、人工衛星からの電波を受信して車両1の現在位置を検出するGPS(Global Positioning System)受信器からなる。また、環境情報センサ11は、車両1に自律走行を行わせるために車両1の状態を検出するセンサおよび車両1の周辺を検出するセンサからなる。この場合、車両1の状態を検出するセンサとしては、加速度センサ、速度センサ、方位角センサが用いられており、車両1の周辺を検出するセンサとしては、車両1の前方等を撮影するカメラ、ライダ(LIDAR)、レーダ等が用いられる。更に、本発明による実施例では、車両1の周辺を検出するセンサとして、車両1の周辺にいる人の発する言葉を捉えるための集音器が用いられている。
一方、地図データ記憶装置12には、車両1に自律走行を行わせるのに必要な地図データ等が記憶されており、また、検知部13は、例えば、循環バスへの乗降者の乗降動作を検出するための種々のセンサからなる。これらの位置情報センサ10、環境情報センサ11、地図データ記憶装置12および検知部13は、電子制御ユニット4に接続されている。
一方、図1において20はサーバを示している。図1に示されるように、このサーバ20内には電子制御ユニット21が設置されている。この電子制御ユニット21はデジタルコンピュータからなり、双方向性バス22によって互いに接続されたCPU(マイクロプロセッサ)23、ROMおよびRAMからなるメモリ24および入出力ポート25を具備する。更に、サーバ20内には、車両1と通信を行うための通信装置26が設置されている。一方、車両1には、サーバ20と通信を行うための通信装置14が搭載されている。
本発明による実施例では、車両駆動部2は、2次電池により駆動される電気モータ、或いは、燃料電池により駆動される電気モータより構成されており、駆動輪は、電子制御ユニット4の出力信号に従って、これらの電気モータにより駆動制御される。また、車両1の制動制御は、電子制御ユニット4の出力信号に従って制動装置3により行われ、車両1の操舵制御は、電子制御ユニット4の出力信号に従って操舵装置4により行われる。
図2は、車両1に自律走行を行わせるための機能構成図を示している。図2に示されるように、本発明による実施例では、車両1が、運行計画生成部30と、環境情報検出部31と、走行制御部32と、位置情報送信部33を具備している。運行計画生成部30では、サーバ20から運行指令を受信すると、運行指令に基づいて、車両1の走行経路、走行速度および停車位置等の運行計画が生成される。環境情報検出部31では、環境情報センサ11により、車両1の自律走行に必要な環境情報が検出される。例えば、環境情報検出部31では、車線の個数や位置、自車両1の周囲に存在する他の移動体の個数や位置、自車両1の周囲に存在する障害物(例えば、歩行者、自転車、構造物、建築物等)の個数や位置、道路の構造、道路標識が検出される。
走行制御部32では、運行計画生成部30において生成された運行計画と、環境情報検出部において検出された環境情報と、地図データ記憶装置12に記憶されている地図データと、位置情報センサ10により検出された車両1の現在位置に基づいて、車両1を自律走行させるための走行制御が行われる。それにより車両1は、設定された走行経路に沿って、他の移動体や障害物との接触を回避しつつ自律走行せしめられる。一方、位置情報送信部33では、位置情報センサ10により検出された車両1の現在位置に関する情報が、通信装置14を経てサーバ20に送信される。なお、これら運行計画生成部30、環境情報検出部31、走行制御部32および位置情報送信部33は、車両1の電子制御ユニット4内に形成されている。
図3は、車両を自律走行させるために車両1に搭載された電子制御ユニット5内において実行される車両の運転制御ルーチンを示している。このルーチンは、一定時間毎の割り込みによって実行される。
図3を参照すると、まず初めに、ステップ40において、サーバ20から運行指令を受信したか否かが判別される。サーバ20から運行指令を受信していないと判別されたときには処理サイクルを終了する。これに対し、サーバ20から運行指令を受信したと判別されたときにはステップ41に進んで、運行指令が取得される。次いで、ステップ42では、運行指令に基づいて、車両1の走行経路、走行速度および停車位置等の運行計画が生成される。
次いで、ステップ43では、車両1の自律走行に必要な環境情報が検出される。次いで、ステップ44では、車両1を自律走行させるための走行制御が行われ、それにより車両1は、設定された走行経路に沿って、他の移動体や障害物との接触を回避しつつ自律走行せしめられる。次いで、ステップ45では、車両1の現在位置に関する情報がサーバ20に送信される。次いで、ステップ46では、車両1が、運行指令により設定された目的地に到達したか否かが判別される。この場合、本発明による実施例では、循環バスが、設定された回数だけ循環した後に、設定された目的地に到達したか否かが判別される。車両1が目的地に到達していないと判別されたとき、本発明による実施例では、循環バスが、設定された回数だけ循環した後に目的地に到達していないと判別されたときには、ステップ43に戻り、車両1の自律走行制御が続行される。車両1が目的地に到達したと判別されたとき、本発明による実施例では、循環バスが、設定された回数だけ循環した後に目的地に到達したと判別されたときには、処理サイクルを終了する。
さて、本発明による実施例では、車両1は、予め設定された領域内で、予め設定された走行経路に沿って自律走行せしめられる循環バスからなる。このように自律走行せしめられる循環バスは、何らかの災害が発生したときに、被災者が避難するための救護車両として利用することが可能である。ただし、この場合、連絡手段が手元にないとか、電源が確保できない等との理由により、被災者がネットワークを通じて循環バスによる救援の要請を行えない場合が生じ、このような場合には、運行指令に基づいて自律走行を行なっている循環バスが近くを走行しているときには、循環バスに乗せてもらうために、ジェスチャでもって循環バスを停止させることができることが好ましい。

一方、この循環バスのような自動運転車両は、周囲の状況を検知し得る種々のセンサを備えており、従って、これらセンサを用いて、ジェスチャを検出可能である。そこで、本発明による実施例では、これらセンサを用いて、ジェスチャを検出し、ジェスチャが自動運転車両の停止を要求しているジェスチャであると判別されたときには、自動運転車両を停止させるようにしている。
ところが、ジェスチャでもって自動運転車両を停止させることができるようなシステムを構築すると、災害の発生とは関係なく平常時であっても、予め設置されている停留所間において自動運転車両が頻繁に停止させられることになり、平常時に、予め設定された時間スケジュールに従った自動運転車両の正常な運行ができなくなるという問題が生ずる。そこで、本発明による実施例では、災害発生時に限って、ジェスチャにより自動運転車両を停止し得るようにシステムを構成し、それにより、平常時には、予め設定された時間スケジュールに従った自動運転車両の正常な運行が可能なようにしている。
次に、図4から図9を参照しつつ、本発明による第1実施例について説明する。さて、自動運転車両の停止を要求するときのジェスチャは、人、地域、国によって異なる種々のジェスチャが存在している。そこで、本発明による実施例では、これらジェスチャのうち代表的な多数のジェスチャが基準ジェスチャとして予め選定され、選定された基準ジェスチャがカメラにより撮影され、例えば、ジェスチャの一定時間おきの撮影画像が取得される。取得された画像は、画像処理装置(図示せず)によりジェスチャの形態的な特徴を抽出した画像データに変換され、画像処理装置に記憶される。このようにして基準ジェスチャに関する画像データが画像処理装置に記憶される。
この画像処理装置において、畳み込みニューラルネットワークを用いた周知のR-CNN(regions with CNN features)が用いられている場合を例にとって簡単に説明すると、カメラにより撮影された画面上には、人を囲むバウンディングボックスが表示される。図4は、基準ジェスチャの一例と、人を囲むバウンディングボックス50とを示しており、図4(A)、(B)、(C)には、人が片腕を上下に振っているときの一定時間おきの基準ジェスチャ画像が図解的に示されている。この場合、無論のこと、このR-CNNの発展形であるFast R-CNN、Faster R-CNN、YOLO或いは、SSDを用いることもできる。なお、車両1に搭載されている電子制御ユニット4は、この画像処理装置における画像処理ルーチンと同じ画像処理ルーチンを実行し得るように調整されている。
次に、図5を参照しつつ、この画像処理装置において実行される基準データ記憶処理ルーチンについて説明する。カメラにより撮影された画面上には、図4に示されるような人を囲むバウンディングボックス50が表示されており、このバウンディングボックス50が表示されていることから、ステップ60では、人の存在が認識される。次いで、ステップ61では、カメラにより撮影された画面から基準ジェスチャ画像が取得され、取得された基準ジェスチャ画像は、ジェスチャから形態の特徴を抽出した画像データ、即ち、画像に対するCNN特徴と称されるベクトルに変換される。次いで、ステップ62では、基準ジェスチャに関する画像データが記憶される。このようなステップ60からステップ62までの処理が、選定された全ての基準ジェスチャの一定時間おきの画像に対して行われる。このようにして画像処理装置には、基準ジェスチャに関する画像データが記憶される。この画像処理装置に記憶された基準ジェスチャに関する画像データは、電子制御ユニット4のメモリ8内に、事前に記憶される。
図6は、車両1の走行中に、車両1に搭載されている電子制御ユニット4内において実行されるデータ記憶処理ルーチンを示している。このルーチンは、一定時間毎の割り込みによって実行される。
図6を参照すると、まず初めに、ステップ100において、車両1に搭載されている環境情報センサ11の一つであるカメラにより撮影され続けられている走行中の車両1の周囲の画像が取得される。次いで、ステップ101では、カメラにより撮影された画面から、人の存在の認識処理が行われる。この場合、車両1の周囲に人がいるときには、カメラにより撮影された画面上に人を囲むバウンディングボックスが表示され、それにより人の存在が認識される。次いで、ステップ102では、カメラにより撮影された画面から、車両1の周囲に人が存在しているか否かが判別される。車両1の周囲に人が存在していないと判別されたときには、処理サイクルを終了する。これに対し、車両1の周囲に人が存在していると判別されたときにはステップ103に進む。
ステップ103では、カメラにより撮影された画面から、車両1の周囲にいる人のジェスチャ画像が取得され、取得されたジェスチャ画像は、ジェスチャから形態の特徴を抽出した画像データに変換される。次いで、ステップ104では、取得されたジェスチャに関する画像データが、電子制御ユニット4のメモリ8内に記憶される。
図7は、車両1の走行中に、車両1に搭載されている電子制御ユニット4内において実行される車両停止判別処理ルーチンを示している。このルーチンは、図6に示されるデータ記憶処理ルーチンよりも長い一定時間毎の割り込みによって実行される。
図7を参照すると、まず初めに、ステップ120において、電子制御ユニット4のメモリ8内に事前に記憶されている基準ジェスチャに関する画像データが読み込まれる。次いで、ステップ121では、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データであって電子制御ユニット4のメモリ8内に記憶されている画像データが読み込まれる。次いで、ステップ122では、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データと基準ジェスチャに関する画像データとが照合され、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データが、車両1の停止を要求しているジェスチャであるか否かの判別が行われる。
走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データが、車両1の停止を要求しているジェスチャであると判別されたときには、ステップ123において、車両1の停止要求があると判別され、ステップ124に進んで、カウント値Kが1だけインクリメントされ、ステップ125に進む。一方、ステップ123において、車両1の停止要求がないと判別されたときにはステップ125にジャンプする。ステップ125では、ジェスチャ画像の照合と判別作用が一定回数行われたか否かが判別され、ジェスチャ画像の照合と判別作用が一定回数以下しか行われていないときには判別が完了していないと判断され、ステップ121に戻る。これに対し、ジェスチャ画像の照合と判別作用が一定回数行われたときには判別が完了したと判断され、ステップ126に進む。
ステップ126では、カウント値Kが一定値KXを越えたか否かが判別される。カウント値Kが一定値KXを越えたときには、ステップ127に進んで、車両1の停止を要求する停止要求フラグAがセットされ、次いで、処理サイクルを終了する。一方、カウント値Kが一定値KXを越えていないときには、処理サイクルを終了する。即ち、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データと基準ジェスチャに関する画像データとが照合されたときに、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データが、車両1の停止を要求しているジェスチャであると判別された割合が一定割合以上のときには、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データが、車両1の停止を要求しているジェスチャであると決定され、停止要求フラグAがセットされる。なお、上述した停止要求フラグAをセットさせるときの判断基準は一例を示すものであって、その他種々の判断基準を用いることができる。
図8は、車両1の走行中に、車両1に搭載されている電子制御ユニット4内において実行される車両停止要求ルーチンを示している。このルーチンは、一定時間毎の割り込みによって実行される。
図8を参照すると、まず初めに、ステップ140において、停止要求フラグAがセットされているか否かが判別される。停止要求フラグAがセットされていないときには、処理サイクルを終了する。これに対し、停止要求フラグAがセットされているときには、ステップ141に進んで、車両1の走行地域に関係する地震、津波、洪水、火災、大雨等の災害の発生情報が取得される。この災害の発生情報としては、例えば、サーバ20から取得した災害の発生に関する外部からの情報を用いることもできるし、車両1に搭載されている環境情報センサ11により取得された災害の発生に関する情報を用いることもできる。例えば、環境情報センサ11として車両1に振動センサを搭載しておき、この振動センサにより地震が発生したか否かの情報を取得することができる。また、環境情報センサ11として車両1に浸水センサを搭載しておき、この浸水センサにより津波、洪水、大雨等が発生したか否かの情報を取得することができる。また、車載カメラにより撮影された建物や道路の損傷の画像から、地震が発生したか否かの情報を取得することができ、車載カメラにより撮影された炎や煙の画像から、火災が発生したか否かの情報を取得することができる。
次いで、ステップ142では、ステップ141において取得された災害の発生情報に基づいて、災害が発生したか否かが判別される。災害が発生したと判別されたときには、ステップ143に進んで、車両1の停止を要求している人の周りで車両1を停止させる車両停止処理が行われる。次いで、ステップ144に進んで、停止要求フラグAがリセットされる。次いで、処理サイクルを終了する。一方、ステップ142において、災害が発生していないと判別されたときには、ステップ144にジャンプする。従って、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データが、車両1の停止を要求しているジェスチャであると判別されたときでも、災害が発生していないと判別された場合には、車両1を停止させる車両停止処理が行われない。即ち、このときには、車両1は、予め設定された時間スケジュールに従って走行される。
即ち、本発明による第1実施例では、図9の機能構成図に示されるように、自動運転車両の車両制御装置は、自動運転車両1の停止を要求するときの人の基準ジェスチャ画像に関するデータを事前に記憶している基準データ記憶部70と、自動運転車両1の自律走行中に、自動運転車両1の周りに人がいることを認識する認識部71と、認識部71により自動運転車両1の周りに人がいることが認識されたときに、自動運転車両1の周りにいる人のジェスチャ画像に関するデータを記憶する走行中データ記憶部72と、基準データ記憶部70に記憶された基準ジェスチャ画像に関するデータと走行中データ記憶部72に記憶されたジェスチャ画像に関するデータとの照合作業を行うことにより、自動運転車両1の周りにいる人のジェスチャが、自動運転車両1の停止を要求しているジェスチャであるか否かを判別する判別部73と、自動運転車両1の走行地域に関係する災害が発生しているか否かを判定する災害発生判定部74とを具備しており、判別部73により、自動運転車両1の周りにいる人のジェスチャが、自動運転車両1の停止を要求しているジェスチャであると判別されたときに、災害発生判定部74より災害が発生していると判定されたときには、自動運転車両1を自動運転車両1の停止を要求している人の周囲で停車させる。
また、別の見方をすると、本発明による第1実施例では、運行指令に基づいて自律走行を行う自動運転車両1の車両制御方法において、自動運転車両1の停止を要求するときの人の基準ジェスチャ画像に関するデータを事前に記憶し、自動運転車両1の自律走行中に、自動運転車両1の周りに人がいることを認識したときに、自動運転車両1の周りにいる人のジェスチャ画像に関するデータを記憶し、記憶された基準ジェスチャ画像に関するデータと記憶されたジェスチャ画像に関するデータとの照合作業を行うことにより、自動運転車両1の周りにいる人のジェスチャが、自動運転車両1の停止を要求しているジェスチャであるか否かを判別し、自動運転車両1の走行地域に関係する災害が発生しているか否かを判定し、自動運転車両1の周りにいる人のジェスチャが、自動運転車両1の停止を要求しているジェスチャであると判別されたときに、上述の災害が発生していると判定された場合には、自動運転車両1を自動運転車両1の停止を要求している人の周囲で停車させる車両制御方法が提供される。
また、本発明による第1実施例では、この車両制御方法を実行するよう、コンピュータを機能させるためのプログラムが提供される。
ところで、災害が発生した場合に、被災者によっては、ジェスチャではなく、言葉でもって、自動運転車両1の停止を要求する場合もあり、この場合には、ジェスチャによる自動運転車両1の停止要求でも、言葉による自動運転車両1の停止要求でも、自動運転車両1を停止し得るように車両運転システムを構築しておくことが好ましい。そこで、本発明による第1実施例の変形例においは、ジェスチャによる自動運転車両1の停止要求があった場合でも、言葉による自動運転車両1の停止要求があった場合でも、災害が発生していると判定された場合には、自動運転車両1を停止し得るように車両運転システムが構築されている。
図10から図13は、この本発明による第1実施例の変形例において用いられる各種ルーチンを示している。なお、この変形例では、図5に示される基準データ記憶処理ルーチンと、図7に示される車両停止判別処理ルーチンがそのまま使用される。また、この変形例では、図6に示されるデータ記憶処理ルーチンに代えて、図10に示されるデータ記憶処理ルーチンと、図11に示される音声データ記憶処理ルーチンと、図12に示される車両停止判別処理ルーチンとが用いられ、図8に示される車両停止要求ルーチンに代えて、図13に示される車両停止要求ルーチが用いられる。
次に、図10から図13を参照しつつ、この本発明による第1実施例の変形例について説明する。
図10は、車両1の走行中に、車両1に搭載されている電子制御ユニット4内において実行されるデータ記憶処理ルーチンを示している。このルーチンは、一定時間毎の割り込みによって実行される。
図10を参照すると、まず初めに、ステップ200において、車両1に搭載されている環境情報センサ11の一つであるカメラにより撮影され続けられている走行中の車両1の周囲の画像が取得される。次いで、ステップ201では、カメラにより撮影された画面から、人の存在の認識処理が行われる。この場合、車両1の周囲に人がいるときには、カメラにより撮影された画面上に人を囲むバウンディングボックスが表示され、それにより人の存在が認識される。次いで、ステップ202では、カメラにより撮影された画面から、車両1の周囲に人が存在しているか否かが判別される。車両1の周囲に人が存在していないと判別されたときには、処理サイクルを終了する。これに対し、車両1の周囲に人が存在していると判別されたときにはステップ203に進む。
ステップ203では、カメラにより撮影された画面から、車両1の周囲にいる人のジェスチャ画像が取得され、取得されたジェスチャ画像は、ジェスチャから形態の特徴を抽出した画像データに変換される。次いで、ステップ204では、取得されたジェスチャに関する画像データが、電子制御ユニット4のメモリ8内に記憶される。次いで、ステップ205では、車両1の周囲にいる人の言葉の取得命令が発せられる。車両1の周囲にいる人の言葉の取得命令が発せられると、図11に示される音声データ記憶処理ルーチンが実行される。
図11を参照すると、まず初めに、ステップ220において、車両1の周囲にいる人の言葉が、一定時間に亘り取得される。この場合、車両1の周囲にいる人の言葉は、環境情報センサ11の一つとして搭載されている集音器によって取得される。次いで、ステップ221では、音声認識技術を用いて、車両1の周囲にいる人の言葉から特徴量が抽出され、抽出された特徴量に基づいて文章化され、文章化されたデータ、即ち、言葉に関するデータが電子制御ユニット4のメモリ8内に記憶される。
図12は、車両1の走行中に、車両1に搭載されている電子制御ユニット4内において実行される車両停止判別処理ルーチンを示している。このルーチンは、図10に示されるデータ記憶処理ルーチンよりも長い一定時間毎の割り込みによって実行される。
図12を参照すると、まず初めに、ステップ240において、電子制御ユニット4のメモリ8内に事前に記憶されている基準の言葉に関するデータが読み込まれる。この基準の言葉について説明すると、自動運転車両の停止を要求するときの言葉も、人、地域、国によって異なる種々の言葉が存在している。このような言葉の例としては、「乗せて」とか、「助けて」が挙げられる。そこで、この変形例では、これら言葉のうち代表的な多数の言葉が基準の言葉として予め選定され、選定された基準の言葉を人に発してもらうことにより基準の言葉が集音器により取得される。基準の言葉が取得されると、音声認識技術を用いて、基準の言葉から特徴量が抽出され、抽出された特徴量に基づいて文章化され、文章化されたデータ、即ち、言葉に関するデータが電子制御ユニット4のメモリ8内に記憶される。ステップ240では、電子制御ユニット4のメモリ8内に事前に記憶されているこの基準の言葉に関するデータが読み込まれる。
次いで、ステップ241では、走行中に取得された車両1の周囲にいる人の言葉に関するデータであって電子制御ユニット4のメモリ8内に記憶されているデータが読み込まれる。次いで、ステップ242では、走行中に取得された車両1の周囲にいる人の言葉に関するデータと基準の言葉に関するデータとが照合され、走行中に取得された車両1の周囲にいる人の言葉に関するデータが、車両1の停止を要求している言葉であるか否かの判別が行われる。走行中に取得された車両1の周囲にいる人の言葉に関するデータが、車両1の停止を要求している言葉であると判別されたときには、ステップ243において、車両1の停止要求があると判別され、ステップ244に進んで、車両1の停止を要求する停止要求フラグBがセットされ、次いで、処理サイクルを終了する。一方、ステップ243において、車両1の停止要求がないと判別されたときには処理サイクルを終了する。
図13は、車両1の走行中に、車両1に搭載されている電子制御ユニット4内において実行される車両停止要求ルーチンを示している。このルーチンは、一定時間毎の割り込みによって実行される。
図13を参照すると、まず初めに、ステップ260において、図7に示される車両停止判別処理ルーチンにおいてセットされる停止要求フラグAがセットされているか否かが判別される。停止要求フラグAがセットされているときには、ステップ262にジャンプする。これに対し、停止要求フラグAがセットされていないときには、ステップ261に進んで、図12に示される車両停止判別処理ルーチンにおいてセットされる停止要求フラグBがセットされているか否かが判別される。停止要求フラグBがセットされているときには、ステップ262に進む。これに対し、停止要求フラグBがセットされていないときには、処理サイクルを終了する。
従って、ステップ262に進むのは、停止要求フラグAがセットされているときか、又は、停止要求フラグBがセットされているとき、即ち、車両1の周りにいる人のジェスチャが、車両1の停止を要求しているジェスチャであると判別されたとき、又は、車両1の周りにいる人の言葉が、車両1の停止を要求している言葉であると判別されたときである。ステップ262では、車両1の走行地域に関係する地震、津波、洪水、火災、大雨等の災害の発生情報が取得される。次いで、ステップ263では、ステップ262において取得された災害の発生情報に基づいて、災害が発生したか否かが判別される。災害が発生したと判別されたときには、ステップ264に進んで、車両1の停止を要求している人の周りで車両1を停止させる車両停止処理が行われる。次いで、ステップ265に進んで、停止要求フラグAがリセットされ、次いで、ステップ266に進んで、停止要求フラグBがリセットされる。次いで、処理サイクルを終了する。一方、ステップ263において、災害が発生していないと判別されたときには、ステップ265にジャンプする。従って、車両1の周りにいる人のジェスチャが、車両1の停止を要求しているジェスチャであると判別されたとき、又は、車両1の周りにいる人の言葉が、車両1の停止を要求している言葉であると判別されたときでも、災害が発生していないと判別された場合には、車両1を停止させる車両停止処理が行われない。即ち、このときには、車両1は、予め設定された時間スケジュールに従って走行される。
即ち、本発明による第1実施例の変形例では、図9の機能構成図において、基準データ記憶部70には、自動運転車両1の停止を要求するときの人の基準ジェスチャ画像に関するデータに加え、自動運転車両1の停止を要求するときの基準の言葉に関するデータが事前に記憶されており、走行中データ記憶部72には、自動運転車両1の周りにいる人のジェスチャ画像に関するデータに加え、自動運転車両1の周りにいる人の言葉に関するデータが記憶されており、判別部73では、基準データ記憶部70に記憶された基準ジェスチャ画像に関するデータと走行中データ記憶部に記憶されたジェスチャ画像に関するデータとの照合作業および基準データ記憶部72に記憶された基準の言葉に関するデータと走行中データ記憶部72に記憶された言葉に関するデータとの照合作業の少なくとも一方の照合作業を行うことにより、自動運転車両1の周りにいる人のジェスチャが、自動運転車両1の停止を要求しているジェスチャであるか否か、又は、自動運転車両1の周りにいる人の言葉が、自動運転車両1の停止を要求している言葉であるか否かが判別される。この場合、判別部73により、自動運転車両1の周りにいる人のジェスチャが、自動運転車両1の停止を要求しているジェスチャであると判別されたとき、又は、自動運転車両1の周りにいる人の言葉が、自動運転車両の停止を要求している言葉であると判別されたときに、災害発生判定部74により災害が発生していると判定された場合には、自動運転車両1が自動運転車両1の停止を要求している人の周囲で停車せしめられる。
次に、図14および図15を参照しつつ、本発明による第2実施例について説明する。この第2実施例では、図5に示される基準データ記憶処理ルーチンと、図7に示される車両停止判別処理ルーチンと、図10に示されるデータ記憶処理ルーチンと、図11に示される音声データ記憶処理ルーチンと、図12に示される車両停止判別処理ルーチンとがそのまま用いられ、図8および図13に示される車両停止要求ルーチンに代えて、図14に示される車両停止要求ルーチが用いられる
図14に示される車両停止要求ルーチは、車両1の走行中に、車両1に搭載されている電子制御ユニット4内において、一定時間毎の割り込みによって実行される。
図14を参照すると、まず初めに、ステップ300において、車両1の走行地域に関係する地震、津波、洪水、火災、大雨等の災害の発生情報が取得される。次いで、ステップ301では、ステップ300において取得された災害の発生情報に基づいて、災害が発生したか否かが判別される。災害が発生していないと判別されたときには、処理サイクルを終了する。これに対し、災害が発生したと判別されたときには、ステップ302に進んで、種々の処理ルーチンが実行される。
即ち、ステップ302では、図10に示されるデータ記憶処理ルーチンが実行され、ステップ303では、図7に示される車両停止判別処理ルーチンが実行され、ステップ304では、要求に応じて図11に示される音声データ記憶処理ルーチンが実行され、ステップ305では、図12に示される車両停止判別処理ルーチンが実行される。このように、この第2実施例では、災害が発生したと判別されたときのみ、図10に示されるデータ記憶処理ルーチン、図7に示される車両停止判別処理ルーチン、図11に示される音声データ記憶処理ルーチン、および図12に示される車両停止判別処理ルーチンが実行される。
次いで、ステップ306では、図7に示される車両停止判別処理ルーチンにおいてセットされる停止要求フラグAがセットされているか否かが判別される。停止要求フラグAがセットされているときには、ステップ308にジャンプする。これに対し、停止要求フラグAがセットされていないときには、ステップ307に進んで、図12に示される車両停止判別処理ルーチンにおいてセットされる停止要求フラグBがセットされているか否かが判別される。停止要求フラグBがセットされているときには、ステップ308に進む。これに対し、停止要求フラグBがセットされていないときには、処理サイクルを終了する。
従って、ステップ308に進むのは、停止要求フラグAがセットされているときか、又は、停止要求フラグBがセットされているとき、即ち、車両1の周りにいる人のジェスチャが、車両1の停止を要求しているジェスチャであると判別されたとき、又は、車両1の周りにいる人の言葉が、車両1の停止を要求している言葉であると判別されたときである。ステップ308では、車両1の停止を要求している人の周りで車両1を停止させる車両停止処理が行われる。次いで、ステップ309に進んで、停止要求フラグAおよび停止要求フラグBがリセットされる。次いで、処理サイクルを終了する。従って、災害が発生していないと判別されたときには、車両1の周りにいる人のジェスチャが、車両1の停止を要求しているジェスチャであったとしても、又は、車両1の周りにいる人の言葉が、車両1の停止を要求している言葉であったとしても、車両1を停止させる車両停止処理が行われない。即ち、このときには、車両1は、予め設定された時間スケジュールに従って走行される。
即ち、本発明による第2実施例では、図15の機能構成図に示されるように、自動運転車両の車両制御装置は、自動運転車両1の停止を要求するときの人の基準ジェスチャ画像に関するデータおよび自動運転車両1の停止を要求するときの基準の言葉に関するデータを事前に記憶している基準データ記憶部80と、自動運転車両1の走行地域に関係する災害が発生しているか否かを判定する災害発生判定部81と、災害発生判定部81により災害が発生していると判定されたときに、自動運転車1の自律走行中に、自動運転車両の周りに人がいることを認識する認識部82と、災害発生判定部81により災害が発生していると判定されかつ認識部82により自動運転車両1の周りに人がいることが認識されたときに、自動運転車両1の周りにいる人のジェスチャ画像に関するデータおよび自動運転車両1の周りにいる人の言葉に関するデータを記憶する走行中データ記憶部83と、災害発生判定部81により災害が発生していると判定されたときに、基準データ記憶部80に記憶された基準ジェスチャ画像に関するデータと走行中データ記憶部83に記憶されたジェスチャ画像に関するデータとの照合作業および基準データ記憶部80に記憶された基準の言葉に関するデータと走行中データ記憶部83に記憶された言葉に関するデータとの照合作業の少なくとも一方の照合作業を行うことにより、自動運転車両1の周りにいる人のジェスチャが、自動運転車両1の停止を要求しているジェスチャであるか否か、又は、自動運転車両1の周りにいる人の言葉が、自動運転車両1の停止を要求している言葉であるか否かを判別する判別部84とを具備しており、判別部84により、自動運転車両1の周りにいる人のジェスチャが、自動運転車両1の停止を要求しているジェスチャであると判別されたとき、又は、自動運転車両1の周りにいる人の言葉が、自動運転車両1の停止を要求している言葉であると判別されたときに、自動運転車両1が自動運転車両1の停止を要求している人の周囲で停車せしめされる。
さて、これまで、災害が発生している場合には、車両1の周りにいる人が、ジェスチャ、或いは、言葉により、車両1の停止を要求したときに、車両1を停止させる方法について、第1実施例、第1実施例の変形例および第2実施例の三つの例を参照しつつ説明してきた。ところが、例えば、車両1が既に満員になっている場合には、車両1の停止を要求している人がいたとしても、車両1への乗車を拒否せざるを得ないことになる。即ち、このような場合を考えると、車両1の停止を要求している人がいたときに、車両1への乗車を許容するか否かを判定することが好ましいと言える。このことは、第1実施例、第1実施例の変形例および第2実施例のいずれの例についても言える。
そこで、次に、第1実施例、第1実施例の変形例および第2実施例において、車両1の停止を要求した人の車両1への乗車を許容するか否かを判定する乗車許容判定処理を行うようにした場合について、以下、順に説明する。この乗車許容判定処理を第1実施例について行う場合には、図8に示される車両停止要求ルーチンに代えて、図16に示される車両停止要求ルーチンが用いられる。図16に示される車両停止要求ルーチンと、図8に示される車両停止要求ルーチンとの異なるところは、図16に示される車両停止要求ルーチンでは、図8に示される車両停止要求ルーチンのステップ142とステップ143との間に、ステップ142aとステップ142bとが追加されていることだけであり、残りのステップ140からステップ144は、図8に示されるステップ140からステップ144と同じである。従って、以下、図16に示される車両停止要求ルーチンについて、ステップ142aとステップ142bに関係する部分についてのみ説明する。
図16を参照すると、ステップ142において、災害が発生したと判別されたときには、ステップ142aに進んで、車両1の停止を要求している人の乗車を許容するか否かの判定処理が行われる。次いで、ステップ142bでは、ステップ142aにおける乗車許容判定処理の結果に基づいて、車両1の停止を要求している人の乗車を許容するか否かが判別される。車両1の停止を要求している人の乗車を許容すると判別されたときには、ステップ143に進んで、車両1の停止を要求している人の周りで車両1を停止させる車両停止処理が行われる。次いで、ステップ144に進んで、停止要求フラグAがリセットされる。一方、ステップ142bにおいて、車両1の停止を要求している人の乗車を許容しないと判別されたときには、ステップ144にジャンプする。従って、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データが、車両1の停止を要求しているジェスチャであると判別されたときでも、車両1の停止を要求している人の乗車を許容しないと判別されたときには、車両1を停止させる車両停止処理が行われない。
次に、車両1の停止を要求した人の車両1への乗車を許容するか否かを判定する乗車許容判定処理を第1実施例の変形例に適用した場合について説明する。この場合には、図13に示される車両停止要求ルーチンに代えて、図17に示される車両停止要求ルーチンが用いられる。図17に示される車両停止要求ルーチンと、図13に示される車両停止要求ルーチンとの異なるところは、図17に示される車両停止要求ルーチンでは、図13に示される車両停止要求ルーチンのステップ263とステップ264との間に、ステップ263aとステップ263bとが追加されていることだけであり、残りのステップ260からステップ266は、図13に示されるステップ260からステップ266と同じである。従って、以下、図17に示される車両停止要求ルーチンについて、ステップ263aとステップ263bに関係する部分についてのみ説明する。
図17を参照すると、ステップ263において、災害が発生したと判別されたときには、ステップ263aに進んで、車両1の停止を要求している人の乗車を許容するか否かの判定処理が行われる。次いで、ステップ263bでは、ステップ263aにおける乗車許容判定処理の結果に基づいて、車両1の停止を要求している人の乗車を許容するか否かが判別される。車両1の停止を要求している人の乗車を許容すると判別されたときには、ステップ264に進んで、車両1の停止を要求している人の周りで車両1を停止させる車両停止処理が行われる。次いで、ステップ265に進んで、停止要求フラグAがリセットされる。一方、ステップ263bにおいて、車両1の停止を要求している人の乗車を許容しないと判別されたときには、ステップ265にジャンプする。従って、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データが、車両1の停止を要求しているジェスチャであると判別されたときでも、又は、走行中に取得された車両1の周りにいる人の言葉が、車両1の停止を要求している言葉であると判別されたときでも、車両1の停止を要求している人の乗車を許容しないと判別されたときには、車両1を停止させる車両停止処理が行われない。
次に、車両1の停止を要求した人の車両1への乗車を許容するか否かを判定する乗車許容判定処理を第2実施例の変形例に適用した場合について説明する。この場合には、図14に示される車両停止要求ルーチンに代えて、図18および図19に示される車両停止要求ルーチンが用いられる。図14に示される車両停止要求ルーチンと、図18および図19に示される車両停止要求ルーチンとの異なるところは、図18および図19に示される車両停止要求ルーチンでは、図14に示される車両停止要求ルーチンのステップ307とステップ308との間に、ステップ307aとステップ307bとが追加されていることだけであり、残りのステップ300からステップ309は、図14に示されるステップ300からステップ309と同じである。従って、以下、図18および図19に示される車両停止要求ルーチンについて、ステップ307aとステップ307bに関係する部分についてのみ説明する。
図18および図19を参照すると、ステップ306において、図7に示される車両停止判別処理ルーチンにおいてセットされる停止要求フラグAがセットされていると判別されたとき、又は、ステップ307において、図12に示される車両停止判別処理ルーチンにおいてセットされる停止要求フラグBがセットされていると判別されたときには、ステップ307aに進んで、車両1の停止を要求している人の乗車を許容するか否かの判定処理が行われる。次いで、ステップ307bでは、ステップ307aにおける乗車許容判定処理の結果に基づいて、車両1の停止を要求している人の乗車を許容するか否かが判別される。車両1の停止を要求している人の乗車を許容すると判別されたときには、ステップ308に進んで、車両1の停止を要求している人の周りで車両1を停止させる車両停止処理が行われる。次いで、ステップ309に進んで、停止要求フラグAおよび停止要求フラグBがリセットされる。一方、ステップ307bにおいて、車両1の停止を要求している人の乗車を許容しないと判別されたときには、ステップ309にジャンプする。従って、走行中に取得された車両1の周囲にいる人のジェスチャに関する画像データが、車両1の停止を要求しているジェスチャであると判別されたときでも、又は、走行中に取得された車両1の周りにいる人の言葉が、車両1の停止を要求している言葉であると判別されたときでも、車両1の停止を要求している人の乗車を許容しないと判別されたときには、車両1を停止させる車両停止処理が行われない。
第1実施例、第1実施例の変形例および第2実施例において、車両1の停止を要求した人の車両1への乗車を許容するか否かを判定する乗車許容判定処理を行うようにした場合には、電子制御ユニット5内に、車両1の停止を要求している人の車両1への乗車を許容するか否かを判定する乗車許容判定部が設けられ、この乗車許容判定部において、車両1の停止を要求している人の車両1への乗車を許容するか否かが判定される。
即ち、本発明による実施例では、災害発生判定部74、81により災害が発生していると判定されたときに、自動運転車両1の停止を要求している人の自動運転車両1への乗車を許容するか否かを判定する乗車許容判定部が設けられており、判定部73,84により、自動運転車両1の周りにいる人のジェスチャが、自動運転車両1の停止を要求しているジェスチャであると判別されたとき、又は、自動運転車両1の周りにいる人の言葉が、自動運転車両1の停止を要求している言葉であると判別されたときであっても、乗車許容判定部により自動運転車両1の停止を要求している人の自動運転車両1への乗車を許容しないと判定されたときには、自動運転車両1は、自動運転車両1の停止を要求している人の周囲で停車されない。
なお、乗車許容判定処理において、車両1の停止を要求した人の車両1への乗車を拒否する場合としては、車両1が満員である場合、即ち、車両1に既に乗車している人の数が許容人数に達している場合に加えて、既に乗車している人の要求により、車両1の停止を要求した人の車両1への乗車を拒否する場合がある。この場合、車両1が満員であるか否かは、例えば、車両1内に設置されたカメラの撮影画面に基づいて判別され、既に乗車している人の中に、車両1の停止を要求した人の車両1への乗車を拒否する人がいるか否かは、車両1内に設置したボタンやタッチパネル、或いは、既に乗車している人の所有する携帯端末により確認するような確認システムを車両1に予め構築しておくことによって可能となる。
即ち、この場合には、本発明による実施例では、電子制御ユニット5内に設けられた乗車許容判定部により、自動運転車両1に既に乗車している人の数又は既に乗車している人の要求が検知され、自動運転車両1に既に乗車している人の数が許容人数に達しているとき、又は、自動運転車両1に既に乗車している人が自動運転車両1の停止を要求している人の乗車拒否を要求しているときには、自動運転車両1の停止を要求している人の自動運転車両1への乗車を許容しないと判別される。このときには、自動運転車両1は停止しない。
一方、いたずらでもって、車両1の停止を要求していると判断された場合には、車両1を停止すべきではない。この場合、車両1に搭載された外部撮影用のカメラの画像に基づき、笑っているとか、にやけているとかいった車両1の停止を要求した人の表情から、いたずらであるか否かを判別可能である。
即ち、この場合には、本発明による実施例では、乗車許容判定部により、自動運転車両1の停止要求がいたずらであるか否かが自動運転車両1の停止を要求している人の表情から判定され、自動運転車両1の停止要求がいたずらであると判定したときには、自動運転車両1の停止を要求している人の自動運転車両1への乗車を許容しないと判別される。従って、このときには、自動運転車両1は停止しない。
1 車両
2 車両駆動部
5、21 電子制御ユニット
70,80 基準データ記憶部
71,82 認識部
72,83 走行中データ記憶部
73,84 判別部
74,81 災害発生判定部

Claims (10)

  1. 運行指令に基づいて自律走行を行う自動運転車両の車両制御装置において、
    該自動運転車両の停止を要求するときの人の基準ジェスチャ画像に関するデータを事前に記憶している基準データ記憶部と
    該自動運転車両の自律走行中に、該自動運転車両の周りに人がいることを認識する認識部と、
    該認識部により該自動運転車両の周りに人がいることが認識されたときに、該自動運転車両の周りにいる人のジェスチャ画像に関するデータを記憶する走行中データ記憶部と、
    該基準データ記憶部に記憶された基準ジェスチャ画像に関するデータと該走行中データ記憶部に記憶されたジェスチャ画像に関するデータとの照合作業を行うことにより、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであるか否かを判別する判別部と
    該自動運転車両の走行地域に関係する災害が発生しているか否かを判定する災害発生判定部とを具備しており、
    該判別部により、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであると判別されたときに、該災害発生判定部により災害が発生していると判定された場合には、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させ、該災害発生判定部により災害が発生していないと判定されたときには、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであったとしても該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させない車両制御装置。
  2. 該基準データ記憶部が、該自動運転車両の停止を要求するときの人の基準ジェスチャ画像に関するデータに加え、該自動運転車両の停止を要求するときの基準の言葉に関するデータを事前に記憶しており、
    該走行中データ記憶部が、該自動運転車両の周りにいる人のジェスチャ画像に関するデータに加え、該自動運転車両の周りにいる人の言葉に関するデータを記憶し、
    該判別部が、該基準データ記憶部に記憶された基準ジェスチャ画像に関するデータと該走行中データ記憶部に記憶されたジェスチャ画像に関するデータとの照合作業および該基準データ記憶部に記憶された基準の言葉に関するデータと該走行中データ記憶部に記憶された言葉に関するデータとの照合作業の少なくとも一方の照合作業を行うことにより、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであるか否か、又は、該自動運転車両の周りにいる人の言葉が、該自動運転車両の停止を要求している言葉であるか否かを判別し、
    該判別部により、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであると判別されたとき、又は、該自動運転車両の周りにいる人の言葉が、該自動運転車両の停止を要求している言葉であると判別されたときに、該災害発生判定部により災害が発生していると判定された場合には、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させる請求項1に記載の車両制御装置
  3. 該災害発生判定部により災害が発生していると判定されたときに、該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容するか否かを判定する乗車許容判定部を具備しており、該乗車許容判定部は、該自動運転車両に既に乗車している人の数又は既に乗車している人の要求を検知して、該自動運転車両に既に乗車している人の数が許容人数に達している場合、又は、該自動運転車両に既に乗車している人が該自動運転車両の停止を要求している人の乗車拒否を要求している場合には、該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容しないと判定し、該判別部により、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであると判別されたときであっても、該乗車許容判定部により該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容しないと判定されたときには、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させない請求項1に記載の車両制御装置。
  4. 該災害発生判定部により災害が発生していると判定されたときに、該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容するか否かを判定する乗車許容判定部を具備しており、該乗車許容判定部は、該自動運転車両の停止要求がいたずらであるか否かを該自動運転車両の停止を要求している人の表情から判別して、該自動運転車両の停止要求がいたずらであると判定した場合には、該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容しないと判定し、該判別部により、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであると判別されたときであっても、該乗車許容判定部により該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容しないと判定されたときには、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させない請求項1に記載の車両制御装置。
  5. 運行指令に基づいて自律走行を行う自動運転車両の車両制御装置において、
    該自動運転車両の停止を要求するときの人の基準ジェスチャ画像に関するデータおよび該自動運転車両の停止を要求するときの基準の言葉に関するデータを事前に記憶している基準データ記憶部と、
    該自動運転車両の走行地域に関係する災害が発生しているか否かを判定する災害発生判定部と、
    該災害発生判定部により災害が発生していると判定されたときに、該自動運転車両の自律走行中に、該自動運転車両の周りに人がいることを認識する認識部と、
    該災害発生判定部により災害が発生していると判定されかつ該認識部により該自動運転車両の周りに人がいることが認識されたときに、該自動運転車両の周りにいる人のジェスチャ画像に関するデータおよび該自動運転車両の周りにいる人の言葉に関するデータを記憶する走行中データ記憶部と、
    該災害発生判定部により災害が発生していると判定されたときに、該基準データ記憶部に記憶された基準ジェスチャ画像に関するデータと該走行中データ記憶部に記憶されたジェスチャ画像に関するデータとの照合作業および該基準データ記憶部に記憶された基準の言葉に関するデータと該走行中データ記憶部に記憶された言葉に関するデータとの照合作業の少なくとも一方の照合作業を行うことにより、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであるか否か、又は、該自動運転車両の周りにいる人の言葉が、該自動運転車両の停止を要求している言葉であるか否かを判別する判別部とを具備しており、
    該判別部により、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであると判別されたとき、又は、該自動運転車両の周りにいる人の言葉が、該自動運転車両の停止を要求している言葉であると判別されたときに、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させる車両制御装置。
  6. 該災害発生判定部により災害が発生していないと判定されたときには、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであったとしても、又は、該自動運転車両の周りにいる人の言葉が、該自動運転車両の停止を要求している言葉であったとしても、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させない請求項5に記載の車両制御装置。
  7. 該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容するか否かを判定する乗車許容判定部を具備しており、該乗車許容判定部は、該自動運転車両に既に乗車している人の数又は既に乗車している人の要求を検知して、該自動運転車両に既に乗車している人の数が許容人数に達している場合、又は、該自動運転車両に既に乗車している人が該自動運転車両の停止を要求している人の乗車拒否を要求している場合には、該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容しないと判定し、該判別部により、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであると判別されたとき、又は、該自動運転車両の周りにいる人の言葉が、該自動運転車両の停止を要求している言葉であると判別されたときであっても、該乗車許容判定部により該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容しないと判定されたときには、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させない請求項5に記載の車両制御装置。
  8. 該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容するか否かを判定する乗車許容判定部を具備しており、該乗車許容判定部は、該自動運転車両の停止要求がいたずらであるか否かを該自動運転車両の停止を要求している人の表情から判別して、該自動運転車両の停止要求がいたずらであると判定したときには、該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容しないと判定し、該判別部により、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであると判別されたとき、又は、該自動運転車両の周りにいる人の言葉が、該自動運転車両の停止を要求している言葉であると判別されたときであっても、該乗車許容判定部により該自動運転車両の停止を要求している人の該自動運転車両への乗車を許容しないと判定されたときには、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させない請求項5に記載の車両制御装置。
  9. 運行指令に基づいて自律走行を行う自動運転車両の車両制御方法において、該自動運転車両に搭載されたコンピュータが、
    該自動運転車両の停止を要求するときの人の基準ジェスチャ画像に関するデータを事前に記憶し、
    該自動運転車両の自律走行中に、該自動運転車両の周りに人がいることを認識したときに、該自動運転車両の周りにいる人のジェスチャ画像に関するデータを記憶し、
    記憶された基準ジェスチャ画像に関するデータと記憶されたジェスチャ画像に関するデータとの照合作業を行うことにより、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであるか否かを判別し、
    該自動運転車両の走行地域に関係する災害が発生しているか否かを判定し、
    該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであると判別されたときに、該災害が発生していると判定された場合には、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させ、該災害が発生していないと判定されたときには、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであったとしても該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させない車両制御方法。
  10. 運行指令に基づいて自律走行を行う自動運転車両を制御し、
    該自動運転車両の停止を要求するときの人の基準ジェスチャ画像に関するデータを事前に記憶し、
    該自動運転車両の自律走行中に、該自動運転車両の周りに人がいることを認識したときに、該自動運転車両の周りにいる人のジェスチャ画像に関するデータを記憶し、
    記憶された基準ジェスチャ画像に関するデータと記憶されたジェスチャ画像に関するデータとの照合作業を行うことにより、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであるか否かを判別し、
    該自動運転車両の走行地域に関係する災害が発生しているか否かを判定し、
    該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであると判別されたときに、該災害が発生していると判定された場合には、該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させ、該災害が発生していないと判定されたときには、該自動運転車両の周りにいる人のジェスチャが、該自動運転車両の停止を要求しているジェスチャであったとしても該自動運転車両を該自動運転車両の停止を要求している人の周囲で停車させないよう、該自動運転車両に搭載されたコンピュータを機能させるためのプログラム。
JP2021034590A 2021-03-04 2021-03-04 車両制御装置、車両制御方法およびプログラム Active JP7355050B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021034590A JP7355050B2 (ja) 2021-03-04 2021-03-04 車両制御装置、車両制御方法およびプログラム
US17/573,757 US11938971B2 (en) 2021-03-04 2022-01-12 Vehicle control device, vehicle control method, and storage medium
CN202210197518.3A CN115092120A (zh) 2021-03-04 2022-03-02 车辆控制装置、车辆控制方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021034590A JP7355050B2 (ja) 2021-03-04 2021-03-04 車両制御装置、車両制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022135028A JP2022135028A (ja) 2022-09-15
JP7355050B2 true JP7355050B2 (ja) 2023-10-03

Family

ID=83116869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021034590A Active JP7355050B2 (ja) 2021-03-04 2021-03-04 車両制御装置、車両制御方法およびプログラム

Country Status (3)

Country Link
US (1) US11938971B2 (ja)
JP (1) JP7355050B2 (ja)
CN (1) CN115092120A (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017191562A (ja) 2016-04-15 2017-10-19 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017121865A (ja) 2016-01-07 2017-07-13 トヨタ自動車株式会社 自動運転車両
JP6862257B6 (ja) * 2017-04-14 2021-06-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 自動運転車両、自動運転車両の停車方法及びプログラム
US11436844B2 (en) * 2017-04-28 2022-09-06 Klashwerks Inc. In-vehicle monitoring system and devices
JP7107647B2 (ja) 2017-07-06 2022-07-27 矢崎エナジーシステム株式会社 無人タクシー制御方法および無人タクシー制御装置
JP2019045370A (ja) * 2017-09-05 2019-03-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御方法、自律走行車及び制御プログラム
EP3854649B1 (en) * 2018-10-24 2023-06-14 Yamaha Hatsudoki Kabushiki Kaisha Autonomous vehicle
DE102018218671A1 (de) * 2018-10-31 2020-04-30 Audi Ag Verfahren zum Betrieb eines autonomen Kraftfahrzeugs
JP6916852B2 (ja) * 2018-11-05 2021-08-11 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US11347225B2 (en) * 2019-02-05 2022-05-31 Intel Corporation Mechanism for conflict resolution and avoidance of collisions for highly automated and autonomous vehicles
US11899448B2 (en) * 2019-02-21 2024-02-13 GM Global Technology Operations LLC Autonomous vehicle that is configured to identify a travel characteristic based upon a gesture
US11869244B2 (en) * 2019-12-27 2024-01-09 Nec Corporation Notification device, notification method, and notification storage medium
JP2023500993A (ja) * 2020-01-03 2023-01-17 モービルアイ ビジョン テクノロジーズ リミテッド 歩行者を伴い、車両フリースペースを特定する車両ナビゲーション
US11710352B1 (en) * 2020-05-21 2023-07-25 Zoox, Inc. Machine-learned model training for pedestrian attribute and gesture detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017191562A (ja) 2016-04-15 2017-10-19 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム

Also Published As

Publication number Publication date
US20220281487A1 (en) 2022-09-08
CN115092120A (zh) 2022-09-23
JP2022135028A (ja) 2022-09-15
US11938971B2 (en) 2024-03-26

Similar Documents

Publication Publication Date Title
US11914377B1 (en) Autonomous vehicle behavior when waiting for passengers
AU2021201755B2 (en) Early boarding of passengers in autonomous vehicles
US10970747B2 (en) Access and control for driving of autonomous vehicle
KR102498091B1 (ko) 운전 제어 장치 및 운전 제어 방법, 그리고 프로그램
JP2018190217A (ja) 運転者監視装置、及び運転者監視方法
US11972687B2 (en) Parking control method
WO2022138123A1 (en) Available parking space identification device, available parking space identification method, and program
JP2023529287A (ja) 半自律車両のためのジェスチャベース制御
JP7095757B2 (ja) 乗車許可判断装置及び乗車許可判断方法
JP7013776B2 (ja) 車両制御装置、車両、及び自動配車方法
CN113183948B (zh) 一种基于交互服务的智能汽车的非固定车位自动移车方法及系统
JP2021162960A (ja) 収容領域管理装置
KR20200125367A (ko) 주차장에서의 자율 주행 방법 및 시스템
JP7355050B2 (ja) 車両制御装置、車両制御方法およびプログラム
US11866068B2 (en) Detecting and responding to malfunctioning traffic signals for autonomous vehicles
CN115551755A (zh) 为自主车辆仲裁摩擦制动和再生制动
JP2018106667A (ja) 情報処理装置、情報処理方法およびプログラム
JP2018106668A (ja) 情報処理装置、情報処理方法およびプログラム
CN114207685A (zh) 自主车辆交互系统
KR102531722B1 (ko) 차량 단말을 이용한 주차위치안내 서비스 방법 및 장치
CN116206482B (zh) 车位释放方法、电子设备及存储介质
JP2018106666A (ja) 情報処理装置、情報処理方法およびプログラム
JP7327428B2 (ja) 感染防止システム
KR102614325B1 (ko) 차량의 사고 이벤트를 분석하기 위한 전자 장치 및 그 동작방법
JP2023066055A (ja) 自動駐車システム、自動駐車方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R151 Written notification of patent or utility model registration

Ref document number: 7355050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151