JP2022113841A - 無人車両運転ポリシーの調整方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム - Google Patents

無人車両運転ポリシーの調整方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム Download PDF

Info

Publication number
JP2022113841A
JP2022113841A JP2022096459A JP2022096459A JP2022113841A JP 2022113841 A JP2022113841 A JP 2022113841A JP 2022096459 A JP2022096459 A JP 2022096459A JP 2022096459 A JP2022096459 A JP 2022096459A JP 2022113841 A JP2022113841 A JP 2022113841A
Authority
JP
Japan
Prior art keywords
unmanned vehicle
pedestrian
driving policy
vehicle
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022096459A
Other languages
English (en)
Other versions
JP7356542B2 (ja
Inventor
黎萍 李
Liping Li
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2022113841A publication Critical patent/JP2022113841A/ja
Application granted granted Critical
Publication of JP7356542B2 publication Critical patent/JP7356542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0017Planning or execution of driving tasks specially adapted for safety of other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4046Behavior, e.g. aggressive or erratic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4047Attentiveness, e.g. distracted by mobile phone
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】本発明は、無人車両運転ポリシーの調整方法を提供し、人工知能分野に関し、特に自動運転、クラウドコンピューティング、NLP、コンピュータビジョンなどの分野に関し、無人車両と歩行者の対話シーンに適用することができる。【解決手段】具体的な実現解決手段として、無人車両の前方の予め設定された範囲内に少なくとも1つの歩行者を検出したことに応じて、少なくとも1つの歩行者の感情を検出し、少なくとも1つの歩行者に特定感情を表現する対象歩行者を検出したことに応じて、特定感情に基づいて、無人車両の現在の運転ポリシーを調整する、ことにある。【選択図】図2

Description

本開示は、人工知能分野に関し、特に、自動運転、クラウドコンピューティング、NLP、コンピュータビジョンなどの分野に関し、無人車両と歩行者の対話シーンに適用することができる。具体的には、無人車両運転ポリシーの調整方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラムに関する。
自動運転車両(無人車両)に比べて、実際の運転者は、車を運転する時に歩行者と効果的なコミュニケーションを行うことができる。研究の結果として、車両の走行中に、歩行者と運転者は、20mの距離からアイコンタクトを開始する。
本開示は、無人車両運転ポリシーの調整方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラムを提供する。
本開示の一態様により提供された無人車両運転ポリシーの調整方法は、無人車両の前方の予め設定された範囲内に少なくとも1つの歩行者を検出したことに応じて、前記少なくとも1つの歩行者の感情を検出することと、前記少なくとも1つの歩行者に特定感情を表現する対象歩行者を検出したことに応じて、前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整することと、を含む、無人車両運転ポリシーの調整方法である。
本開示の別の態様により提供された無人車両運転ポリシーの調整装置は、無人車両の前方の予め設定された範囲内に少なくとも1つの歩行者を検出したことに応じて、前記少なくとも1つの歩行者の感情を検出する第1の検出モジュールと、前記少なくとも1つの歩行者に特定感情を表現する対象歩行者を検出したことに応じて、前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整する調整モジュールと、を含む、無人車両運転ポリシーの調整装置である。
本開示の別の態様により提供された電子機器は、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信接続されたメモリとを備え、前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令を記憶しており、前記命令は、前記少なくとも1つのプロセッサが本開示の実施例に記載の方法を実行することができるように、前記少なくとも1つのプロセッサにより実行される電子機器である。
本開示の別の態様により提供されたコンピュータ命令が記憶された非一時的なコンピュータ読取可能な記憶媒体は、前記コンピュータ命令は、前記コンピュータに本開示の実施例に記載の方法を実行させる記憶媒体である。
本開示の別の態様により提供されたコンピュータプログラムは、プロセッサにより実行される場合、本開示の実施例に記載の方法を実現するコンピュータプログラムである。
理解されるべきこととして、本部分に記載された内容は、本開示の実施例のキーポイントまたは重要な特徴を示すことを意図するものではなく、本開示の範囲を限定するものでもない。本開示の他の特徴は、以下の説明により容易に理解される。
ここで、図面は、本開示の発明をよく理解するために用いられ、本開示を限定するものではない。
本開示の実施例に適するシステムアーキテクチャを例示的に示す図である。 本開示の実施例に係る無人車両運転ポリシーの調整方法のフローチャートを例示的に示す図である。 本開示の実施例に係る無人車両が歩行者を回避する原理図を例示的に示す図である。 本開示の実施例に係る無人車両運転ポリシーの調整装置のブロック図を例示的に示す図である。 本発明の実施例の方法を実現するための電子機器のブロック図を例示的に示す図である。
以下、図面を参照して本開示の例示的な実施例を説明する。ここで、より理解しやすいために本開示の実施例の様々な詳細は含まれ、それらが例示的なものであると考えられるべきである。したがって、当業者であれば、ここで記載される実施例に対して様々な変更や修正を行うことができ、本開示の範囲及び精神から逸脱することはないと分るべきである。同様に、明確かつ簡潔に説明するために、以下の記載において周知の機能や構成に対する説明を省略する。
現在、自動運転車両は、歩行者とのコミュニケーションポリシーを欠く。これにより、自動運転ポリシーが保守しすぎると、車両の通行効率を低下させ、乗客と歩行者に不安を感じさせ、自動運転ポリシーが過度に進むと、乗客と歩行者に恐れを感じさせる。
上記技術課題を解決するために、関連技術においては、無人車両が横断歩道および歩行者を検出すれば、車外ディスプレイに提示語を表示し、歩行者の先行を合図するという解決手段が提供されている。
横断歩道がない道路区間において、この解決手段は汎用できないと理解されるべきである。また、道路を通過したくないが、車両の威嚇を感じられる歩行者に対して、この解決手段は、いかなる宥める措置を提供していない。
これに対して、本開示の実施例は、歩行者の気持ちを無人車両運転ポリシーの調整変数とすることができる、無人車両に用いられる解決手段を提供する。例えば、車外カメラにより採集された画像データ及び個人用ウェアラブルデバイスにより報告されたデータにより、歩行者の感情を識別し、且つ歩行者の感情に基づいて、無人車両に対して運転ポリシーの調整を行うことができる。したがって、本開示の実施例は、自動運転車両上の乗客と、車両が接触する歩行者のいずれにもより良好な気持ちを有させることができる。
以下、具体的な実施例を参照しながら本開示を詳細に説明する。
本開示の実施例に適する無人車両運転ポリシーの調整方法及び装置のシステムアーキテクチャは、以下のように説明される。
図1は、本開示の実施例に適するシステムアーキテクチャを例示的に示す図である。なお、図1に示すのは、本開示の実施例のシステムアーキテクチャを適用することができる例に過ぎず、当業者が本開示の技術内容を理解することに役立つが、本開示の実施例が他の環境またはシーンに用いられないことを意味するものではない。
図1に示すように、システムアーキテクチャ100は、無人車両101と、サーバ102と、個人用ウェアラブルデバイス103とを含んでもよい。ここで、無人車両101は、車外カメラ1011と、運転ポリシー調整手段1012と、運転制御手段1013とを含んでもよい。
車外カメラ1011は、無人車両101の走行中に画像データを採集するために用いられる。車外カメラ1011に採集された画像データにより、歩行者と車両との間の相対位置を判断すること、歩行者の視線が車体に当たっているかを判断すること、歩行者が視覚障害を有するかを判断すること、歩行者の感情を判断することなどができる。
歩行者が着用する個人用ウェアラブルデバイス103は、FMブロードキャストの方式で、歩行者の心拍数、瞳孔、顔表情、生体電気等の指標データを報告してもよい。これらの指標データにより、歩行者の感情または気持ちを判断することができる。
本開示の幾つかの実施例においては、車外カメラ1011と個人用ウェアラブルデバイス103がデータを無人車両101に直接報告し、無人車両101がデータ解析により歩行者の感情を判断してもよい。そして、運転ポリシー調整手段1012は、歩行者の感情の判断結果に基づいて、無人車両の運転ポリシーを調整してもよい。そして、運転制御手段1013は、調整された運転ポリシーを実行してもよい。例えば、歩行者が恐れを感じていることを発見すると、車速が現在の道路区間のシステム最低速度制限を下回らない場合、減速すると共に、歩行者から離れる側に車線変更してもよい。
本開示の他の実施例においては、車外カメラ1011と個人用ウェアラブルデバイス103がデータをサーバ102に報告し、サーバ102がデータ解析により歩行者の感情を判断してもよい。そして、サーバ102は、歩行者の感情の判断結果を無人車両101に送信する。そして、無人車両101は、運転ポリシー調整手段1012により、歩行者の感情の判断結果に基づいて、無人車両の運転ポリシーを調整してもよい。そして、運転制御手段1013は、調整された運転ポリシーを実行してもよい。
なお、本開示の実施例においては、異なる歩行者の感情に基づいて、対応する無人車両運転ポリシーを予め設定してもよい。ここで、歩行者の感情は、複数の分類を含んでもよい。例えば、歩行者の感情は、歩行者が特別な気持ちを有しないことと、歩行者が恐れを感じることと、歩行者が焦りを感じることとの3種類を含んでもよい。例示的には、歩行者が特別な気持ちを有しないと、デフォルトの運転ポリシーを継続して実行してもよい。歩行者が恐れを感じると、歩行者から離れる側に車線変更して走行するかまたは歩行者から離れる側に車線変更しかつ減速して走行してもよい。歩行者が焦りを感じると、場合によって速度を増やして通行するかまたは停車して歩行者が先行することを合図してもよい。
また、本開示の実施例においては、サーバ102がクラウドサーバであってもよい。
図1における無人車両、サーバ及び個人用ウェアラブルデバイスの数は、単に例示的なものであると理解すべきである。必要に応じて、任意の数の無人車両、サーバ及び個人用ウェアラブルデバイスを有することができる。
本開示の実施例に適する無人車両運転ポリシーの調整方法及び装置の応用シーンは以下のように説明される。
なお、本開示の実施例に提供される無人車両走行解決手段は、横断歩道がある道路区間に適応するだけでなく、横断歩道のない道路区間に対しても同様に適用される。
本開示の実施例によれば、本開示は、無人車両運転ポリシーの調整方法を提供している。
図2は、本開示の実施例に係る無人車両運転ポリシーの調整方法のフローチャートを例示的に示す図である。
図2に示すように、無人車両運転ポリシーの調整方法200は、操作S210~S220を含んでもよい。
操作S210においては、無人車両の前方の予め設定された範囲内に少なくとも1つの歩行者を検出したことに応じて、少なくとも1つの歩行者の感情を検出する。
操作S220においては、少なくとも1つの歩行者に特定感情を表現する対象歩行者を検出したことに応じて、特定感情に基づいて、無人車両の現在の運転ポリシーを調整する。
本開示の幾つかの実施例においては、無人車両は、走行中に、赤外線検知器により、車両前方の予め設定された範囲内(例えば20m内)に生体があるか否かを検知してもよい。車両前方の予め設定された範囲内に生体があると検知された場合、車外カメラにより画像データを採集し、採集された画像データに基づいて、該生体が歩行者であるか否かを判断してもよい。さらに、生体が歩行者であると確定された場合、採集された画像データを画像ライブラリにおける歩行者の感情(例えば瞳孔の大きさ等)とマッチングすることにより、車両前方の歩行者の現在の感情が予め設定された特定感情(例えば恐れ、焦り等)であるか否かを確定する。車両前方の歩行者の現在の感情が予め設定された特定感情であると確定された場合、無人車両の現在の運転ポリシーを該特定感情に対して予め定められた運転ポリシーに調整する。例えば、歩行者が恐れを感じると、歩行者から離れる側に車線変更して走行するかまたは歩行者から離れる側に車線変更し減速して走行してもよい。歩行者が焦りを感じると、場合によって速度を増やして通行するかまたは停車して歩行者が先行することを合図してもよい。また、歩行者が特別な気持ちを有しなければ、デフォルトの運転ポリシーを継続して実行してもよい、即ち、車両の運転ポリシーを調整しない。
本開示の他の幾つかの実施例においては、無人車両は、走行中に、個人用ウェアラブルデバイスにより報告されたデータを受信すると、車両前方の予め設定された範囲内(例えば20m内)に歩行者があるとする。この場合、車外カメラにより画像データを採集し、採集された画像データを画像ライブラリにおける歩行者の感情とマッチングすることにより、車両前方の歩行者の現在の感情が予め設定された特定感情(例えば恐れ、焦り等)であるか否かを確定してもよい。車両前方の歩行者の現在の感情が予め設定された特定感情であると確定され場合、無人車両の現在の運転ポリシーを該特定感情に対して予め定められた運転ポリシーに調整する。
または、本開示の実施例において、車外カメラにより採集された画像データに基づき、歩行者の感情を判断する以外に、個人用ウェアラブルデバイスにより報告されたデータに基づいて、歩行者の感情を判断してもよい。または、同時に個人用ウェアラブルデバイスにより報告されたデータおよび車外カメラにより採集された画像データに基づき、歩行者の感情を判断してもよい。
本開示の実施例において、個人用ウェアラブルデバイスにより報告されたデータは、ユーザの顔の表情、心拍数、生体電気及び自己評価などの情報のうちの一種または複数種を含んでもよいが、それらに限定されないと理解すべきである。
例示的には、個人用ウェアラブルデバイスにより報告された心拍数値に基づき歩行者の現在の感情を知ることは、歩行者の心拍数値を取得するステップと、該心拍数値があるデータ範囲を判断するステップと、該心拍数値があるデータ範囲に基づいて、歩行者の感情、例えば、恐れ、焦り、気持ち無しを確定するステップとを含んでもよい。
理解すべきこととして、一般的には、歩行者(例えば、子供連れの親、行動不自由な高齢者)が車両の接近に恐れを感じたと、無人車両が減速し、車線変更して歩行者を回避する必要がある。または、一般的には、歩行者が焦りを感じた(例えば、急いで道路を横断している)と、場合によって、無人車両を、速度を増やして通行するか、または停車して歩行者が先に通過することを合図するように制御してもよい。
本開示の実施例によれば、無人車両は、走行中に、歩行者の感情に基づいて、車両の運転ポリシーを調整することができるので、インテリジェント化レベルがより高く、かつ車両の通行効率を向上させると共に、無人車両が歩行者の安全を脅かすことを回避することができる。また、道路を横断したくない、または、道路の横断を急いでいない歩行者に対して、宥める対策(車線変更、歩行者から離れ、減速徐行等)を採用することができ、歩行者の感情を宥めると共に、安全リスクを回避することができる。
好ましい実施例として、該方法は、特定感情に基づいて、無人車両の現在の運転ポリシーを調整する前に、対象歩行者が無人車両を注視しているか否かを検出することをさらに含む。ここで、対象歩行者が無人車両を注視していることを検出したことに応じて、特定感情に基づいて、無人車両の現在の運転ポリシーを調整する操作を実行する。
本開示の実施例において、歩行者が無人車両を注視し特定感情を表現すれば、無人車両によって歩行者が該特定感情を表現すると考えられると理解すべきである。このような場合、歩行者の感情に基づいて、無人車両の現在の運転ポリシーを調整してもよい。または、歩行者が特定感情を表現するだけで、無人車両を注視していないとすれば、歩行者が現在表現した該特定感情は、無人車両によるものではなく、周囲の他の環境要因によるものである可能性があると考えられる。このような場合、無人車両の現在の運転ポリシーを調整せず、デフォルトの運転ポリシーを継続して実行してもよい。
例示的には、無人車両が採集した画像データ、及び/または、個人用ウェアラブルデバイスが報告したデータに基づいて、歩行者の瞳孔位置に追跡してもよい。1つの実施例において、歩行者の瞳孔の直線3°の視角が無人車両のフロントウィンドウをカバーすることができる場合、歩行者が車両を注視しているとする。そうでなければ、歩行者が車両を注視していないとする。
本開示の実施例によれば、歩行者が無人車両により恐れや焦りである場合のみ、運転ポリシーの調整を行い、歩行者が他の環境要因により恐れや焦りを感じる場合、運転ポリシーを継続して実行する、即ち運転ポリシーの調整を行わないとしてもよい。これにより、安全リスクを回避すると共に、無人車両の通行効率を向上させることができる。
好ましい実施例として、該方法は、対象歩行者が無人車両を注視していないことを検出すると、対象歩行者が視覚障害者であるか否かを検出することをさらに含む。ここで、対象歩行者が視覚障害者であることを検出すると、特定感情に基づいて、無人車両の現在の運転ポリシーを調整する操作を実行する。
本開示の実施例において、歩行者が無人車両を注視し特定感情を表現すれば、無人車両によって歩行者が該特定感情を表現すると考えられると理解すべきである。このような場合、歩行者の感情に基づいて、無人車両の現在の運転ポリシーを調整してもよい。
しかしながら、本開示の実施例において、歩行者が特定感情を表現するだけで、無人車両を注視していない場合、歩行者が現在表現した特定感情が無人車両によるものではないと直接的に考えると、誤判断により安全事故が発生する可能性がある。したがって、特殊な場合、例えば、歩行者が視覚障害を有する場合、歩行者が現在表現した該特定感情は無人車両によるものであっても、歩行者は、先天の障害により、車両を注視することができない。
したがって、このような場合、まず、歩行者が視覚障害者であるか否かを判断してもよい。歩行者が視覚障害者であると確定された場合、無人車両の現在の運転ポリシーを調整することを決定する。歩行者が視覚障害者ではないと確定された場合、デフォルトの運転ポリシーを継続して実行することを決定する。
例示的には、無人車両が採集した画像データを画像ライブラリにおける画像データと照合することにより、歩行者が視覚障害を有するか否かを確定してもよい。または、個人用ウェアラブルデバイスにより報告された歩行者の個人情報(例えば、視覚障害であるか否か等)に基づいて、歩行者が視覚障害を有するか否かを確定してもよい。なお、個人用ウェアラブルデバイスは、FMブロードキャストの方式によりデータを報告することができる。
本開示の実施例によれば、歩行者が特定感情を表現し、かつ無人車両を注視していない場合、まず、歩行者に対して視覚状態の検査を行い、歩行者が視覚障害者であるか否かを確定してから、運転ポリシーを調整するか否かを決定することができる。これにより、安全リスクを回避すると共に、無人車両の通行効率を向上させることができる。
好ましい実施例として、特定感情に基づいて、無人車両の現在の運転ポリシーを調整することは、以下の少なくとも1つを含む。
特定感情は、対象歩行者が無人車両を恐れていることを示す場合、無人車両を、対象歩行者から離れる側に車線変更するように制御する。
特定感情は、対象歩行者が焦っていることを示す場合、無人車両を、速度を増やして通行するか、または停車しかつ歩行者の先行を合図するように制御する。
ある場合、歩行者は、自身に道路を横断するか、または道路を急いで横断する思いがないが、このような場合でも、歩行者は、無人車両の接近により恐れを感じる可能性があると理解すべきである。したがって、このような場合、場合(例えば、無人車両の現在の車速に基づいて)によって、無人車両を、その速度のまままたは減速の方式で対象歩行者から離れる側に車線変更するように制御してもよい。
さらに、好ましい実施例として、無人車両を対象歩行者から離れる側に車線変更するように制御することは、以下の少なくとも1つを含む。
無人車両の車速が最低速度制限(道路及び/またはシステム最低速度制限を含む。)に等しい場合、無人車両を対象歩行者から離れる側に車線変更するように制御するだけである。
無人車両の車速が最低速度制限より高い場合、無人車両を対象歩行者から離れる側に減速して車線変更するように制御する。
好ましい実施例として、無人車両を、速度を増やして通行するか、または停車しかつ歩行者の先行を合図するように制御することは、以下の場合を含んでもよい。
無人車両の車速が最高速度制限(道路及び/またはシステムの最高速度制限を含む。)より低い場合、無人車両を、速度を増やして通行するように制御する。
または、無人車両の車速が最高速度制限に等しい場合、無人車両を、停車しかつ歩行者の先行を合図するように制御する。
なお、本開示の実施例においては、車両の前方の予め設定された範囲内に複数の歩行者があり、且つこれらの歩行者の中に無人車両の接近に恐れを感じるものも、焦っているものもある場合、恐れを感じる歩行者に対して運転ポリシーの調整措置を採用することを優先させる。
また、本開示の実施例においては、車両の前方の予め設定された範囲内に複数の歩行者に同時に同種の感情が出現する場合、感情反応が最も激しい歩行者を基準として相応する運転ポリシーの調整措置を採用してもよい。
また、無人車両が歩行者から離れる側に車線変更する場合、他の車両の走行に影響を与えず、車線変更ができる車線がある場合行う必要があると理解すべきである。これらの条件を満たさなければ、歩行者側から離れるレーンラインに接近して走行してもよい。
また、本開示の実施例においては、車外ディスプレイ、スピーカ放送及び個人用ウェアラブルデバイスにメッセージを送信する方式により、歩行者の先行を合図することができると理解すべきである。
好ましい実施例として、少なくとも1つの歩行者の感情を検出することは、無人車両が採集した画像データ及び/または少なくとも1つの歩行者の個人用ウェアラブルデバイスが報告したデータに基づいて、少なくとも1つの歩行者の感情を検出することを含んでもよい。
なお、本開示の実施例においては、無人車両が採集した画像データ及び/または個人用ウェアラブルデバイスが報告したデータに基づいて歩行者の感情を検出する方法は、前述の実施例における関連説明を参照することができ、本開示の実施例は、ここで説明を省略する。
以下に図3及び具体的な実施例を参照して本開示における無人車両が歩行者を回避する原理を詳細に説明する。
図3に示すように、無人車両は、走行中に歩行者を宥めるかまたは優先させるように、以下の操作を実行してもよい。
操作S310は、予め設定されたデフォルト運転ポリシーを実行する。
操作S320は、車外カメラ及び/または個人用ウェアラブルデバイスにより報告されたデータを取得する。
操作S330は、操作S320により取得されたデータに基づいて、無人車両の前方20m内に歩行者があるか否かを判断する。「あり」であれば、操作S340を実行する;「無し」であれば、操作S310に移行する。
操作S340は、歩行者が車両を注視しているか否かを判断する。歩行者が車両を注視していると、操作S360を実行し、そうでなければ、操作S350を実行する。
操作S350は、歩行者が視覚障害者であるか否かを判断する。歩行者が視覚障害者であれば、操作S360を実行し、そうでなければ、操作S310に移行する。
操作S360は、歩行者が恐れを感じているか否かを検出する。歩行者が恐れを感じていると、操作S370を実行し、そうでなければ、操作S3100を実行する。
操作S370は、車速が道路・システムの最低速度制限に等しいか否かを判断する。等しいであれば、操作S380を実行し、そうでなければ、操作S390を実行する。
操作S380は、歩行者から離れる側に車線変更する。
操作S390は、減速し、歩行者から離れる側に車線変更する。
操作S3100は、歩行者が焦りの感情を有するか否かを検出する。歩行者が焦りの感情を有すれば、操作S3110を実行し、そうでなければ、操作S310に移行する。
操作S3110は、車速が道路・システムの最高速度制限に等しいか否かを判断する。等しいであれば、操作S3120を実行し、そうでなければ、操作S3130を実行する。
操作S3120は、停車し、歩行者の先行を合図する。
操作S3130は、速度を増やして通行する。
本開示の実施例によれば、本開示は、無人車両運転ポリシーの調整装置をさらに提供する。
図4は、本開示の実施例に係る無人車両運転ポリシーの調整装置のブロック図を例示的に示す図である。
図4に示すように、無人車両運転ポリシーの調整装置400は、第1の検出モジュール410と、調整モジュール420とを含んでもよい。
第1の検出モジュール410は、無人車両の前方の予め設定された範囲内に少なくとも1つの歩行者を検出したことに応じて、該少なくとも1つの歩行者の感情を検出するために用いられる。
調整モジュール420は、該少なくとも1つの歩行者に特定感情を表現している対象歩行者を検出したことに応じて、該特定感情に基づいて、該無人車両の現在の運転ポリシーを調整するために用いられる。
好ましい実施例として、該装置は、該調整モジュールが該特定感情に基づいて該無人車両の現在の運転ポリシーを調整する前に、該対象歩行者が該無人車両を注視しているか否かを検出するために用いられる第2の検出モジュールをさらに含む。ここで、該第2の検出モジュールにより該対象歩行者が該無人車両を注視していることが検出されたことに応じて、該調整モジュールにより、該特定感情に基づいて、該無人車両の現在の運転ポリシーを調整する操作が実行される。
好ましい実施例として、該装置は、該第2の検出モジュールにより該対象歩行者が該無人車両を注視していないことが検出されたことに応じて、該対象歩行者が視覚障害者であるか否かを検出するために用いられる第3の検出モジュールをさらに含む。ここで、該第3の検出モジュールにより該対象歩行者が視覚障害者であることが検出されたことに応じて、該調整モジュールにより、該特定感情に基づいて、該無人車両の現在の運転ポリシーを調整する操作が実行される。
好ましい実施例として、該調整モジュールは、該特定感情が該対象歩行者が該無人車両に恐れを感じていることを示す場合、該無人車両を、該対象歩行者から離れる側に車線変更するように制御するために用いられる第1の制御手段と、該特定感情が該対象歩行者が焦っていることを示す場合、該無人車両を、速度を増やして通行するか、または停車しかつ歩行者の先行を合図するように制御するために用いられる第2の制御手段と、のうちの少なくとも1つにより対応する操作を実行するために用いられる。
好ましい実施例として、該第1の制御手段は、該無人車両の車速が最低速度制限に等しい場合、該無人車両を該対象歩行者から離れる側に車線変更するように制御するだけの操作と、該無人車両の車速が最低速度制限より高い場合、該無人車両を該対象歩行者から離れる側に減速して車線変更するように制御する操作と、のうちの少なくとも1つを実行するために用いられる。
好ましい実施例として、該第2の制御手段は、さらに、該無人車両の車速が最高速度制限より低い場合、該無人車両を速度を増やして通行するように制御する、または、該無人車両の車速が最高速度制限に等しい場合、該無人車両を停車しかつ歩行者の先行を合図するように制御するために用いられる。
好ましい実施例として、該第1の検出モジュールは、さらに、該無人車両が採集した画像データ及び/または該少なくとも1つの歩行者の個人用ウェアラブルデバイスが報告したデータに基づいて、該少なくとも1つの歩行者の感情を検出するために用いられる。
本開示の装置部分の実施例は、方法部分の実施例と同じまたは類似し、解決しようとする技術課題および実現する機能も対応的に同じまたは類似するため、ここでは説明を省略すると理解すべきである。
本開示の実施例によれば、本開示は、電子機器、可読記憶媒体及びコンピュータプログラムをさらに提供する。
図5は、本開示の実施例を実施することが可能な電子機器500の一例を示す概略ブロック図である。電子機器は、様々な形式のデジタルコンピュータを示すことを目的とし、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ及び他の適切なコンピュータである。電子機器は、さらに様々な形式の移動装置を示してもよく、例えば、個人デジタルアシスタント、携帯電話、スマートフォン、ウェアラブルデバイス及び他の類似の演算装置である。本明細書に示された部材、それらの接続及び関係、及びそれらの機能は、例示に過ぎず、本明細書に記載された及び/または要求された本開示の実現を限定しない。
図5に示すように、電子機器500は、演算手段501を含み、演算手段501は、リードオンリーメモリ(ROM)502に記憶されたコンピュータプログラムまたは記憶手段508からランダムアクセスメモリ(RAM)503にロードされたコンピュータプログラムに基づいて、様々な適切な動作及び処理を実行してもよい。RAM 503には、さらに電子機器500の操作に必要な様々なプログラム及びデータを記憶してもよい。演算手段501、ROM502、およびRAM503は、バス504を介して相互に接続される。入出力(I/O)インタフェース505も、バス504に接続される。
電子機器500における、例えばキーボード、マウス等の入力手段506と、例えば様々な種類のディスプレイ、スピーカ等の出力手段507と、例えば磁気ディスク、光ディスク等の記憶手段508と、例えばネットワークカード、モデム、無線通信トランシーバ等の通信手段509とを含む複数の部品は、I/Oインタフェース505に接続される。通信手段509は、電子機器500がインターネット等のコンピュータネットワーク及び/または各種の電気通信ネットワークを介して他の機器と情報・データをやり取りすることを可能にする。
演算手段501は、処理及び演算能力を有する各種の汎用及び/または専用の処理モジュールであってもよい。演算手段501の幾つかの例としては、中央処理装置(CPU)、GPU(Graphics Processing Unit)、各種専用の人工知能(AI)演算チップ、機械学習モデルアルゴリズムをランニングする各種演算手段、DSP(Digital Signal Processor)、並びに任意の適切なプロセッサ、コントローラ、マイクロコントローラ等が挙げられるが、これらに限定されない。演算手段501は、例えば無人車両運転ポリシーの調整方法のような上記に記載の各方法及び処理を実行する。例えば、いくつかの実施例において、無人車両運転ポリシーの調整方法は、例えば記憶手段508のような機械可読媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現されてもよい。いくつかの実施例において、コンピュータプログラムの一部または全部は、ROM 502及び/または通信手段509を介して電子機器500にロード及び/またはインストールされてもよい。コンピュータプログラムがRAM503にロードされて演算手段501により実行される場合、上記に記載の無人車両運転ポリシーの調整方法の1つまたは複数のステップを実行してもよい。代替的に、他の実施例において、演算手段501は、他の任意の適切な方式(例えば、ファームウェアを介する)により無人車両運転ポリシーの調整方法を実行するように構成されてもよい。
本明細書で説明されたシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラムマブルロジックデバイス (CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/またはそれらの組み合わせにおいて実現されてもよい。これらの様々な実施形態は、1つまたは複数のコンピュータプログラムにおいて実施され、当該1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラムマブルプロセッサを含むプログラムマブルシステムで実行され及び/または解釈されることが可能であり、当該プログラムマブルプロセッサは、専用または汎用のプログラムマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、且つデータ及び命令を当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができることを含んでもよい。
本開示の方法を実施するためのプログラムコードは、1つまたは複数のプログラミング言語の任意の組み合わせで作成されてもよい。これらのプログラムコードは、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサまたはコントローラに提供されてもよく、それによって、プログラムコードがプロセッサまたはコントローラにより実行される時に、フローチャート及び/またはブロック図に規定された機能・操作が実施される。プログラムコードは、機器に完全に実行されてもよく、部分的に機器で実行されてもよく、独立したソフトウェアパッケージとして部分的に機器で実行され、かつ部分的に遠隔機器で実行されるかまたは完全に遠隔機器またはサーバで実行されてもよい。
本開示のコンテキストにおいて、機械可読媒体は、有形の媒体であってもよく、命令実行システム、装置または電子機器に使用され、または命令実行システム、装置または電子機器と組み合わせて使用されるプログラムを含んでまたは記憶してもよい。機械可読媒体は、機械可読信号媒体または機械可読記憶媒体であってもよい。機械可読媒体は、電子の、磁気的、光学的、電磁的、赤外線の、または半導体システム、装置または電子機器、または上記内容の任意の適切な組み合わせを含んでもよいが、それらに限定されない。機械可読記憶媒体のより具体的な例としては、1つ以上の線による電気的接続、携帯式コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ)、光ファイバ、コンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記内容の任意の適切な組み合わせを含む。
ユーザとの対話を提供するために、コンピュータにここで説明されたシステム及び技術を実施させてもよく、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウスまたはトラックボール)とを備え、ユーザは、当該キーボード及び当該ポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類の装置は、さらにユーザとの対話を提供してもよく、例えば、ユーザに提供されたフィードバックは、いかなる形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、且ついかなる形式(音声入力、語音入力、または、触覚入力を含む)でユーザからの入力を受信してもよい。
ここで説明されたシステム及び技術は、バックグラウンド部品を含むコンピューティングシステム(例えば、データサーバとする)、またはミドルウェア部品を含むコンピューティングシステム(例えば、アプリケーションサーバ)、またはフロントエンド部品を含むコンピューティングシステム(例えば、グラフィカルユーザインタフェースまたはウェブブラウザを有するユーザコンピュータ、ユーザが該グラフィカルユーザインタフェースまたは該ネットワークブラウザを介してここで説明されたシステム及び技術の実施形態と対話することができる)、またはこのようなバックグラウンド部品、ミドルウェア部品、またはフロントエンド部品のいずれかの組み合わせを含むコンピューティングシステムに実施されることが可能である。任意の形式または媒体のデジタルデータ通信(例えば、通信ネットワーク)によりシステムの部品を互いに接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを例示的に含む。
コンピュータシステムは、クライアント及びサーバを含んでもよい。クライアントとサーバ同士は、一般的に離れており、通常、通信ネットワークを介して対話する。クライアントとサーバとの関係は、該当するコンピュータ上でランニングし、クライアント-サーバの関係を有するコンピュータプログラムによって生成される。サーバは、クラウドサーバであってもよく、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、それによって、従来の物理ホストとVPSサービス(“Virtual Private Server”、または“VPS”と略称する)に存在する管理難度が大きく、サービス拡張性が弱いという欠陥を解決している。サーバは、分散型システムのサーバであってもよく、またはブロックチェーンを組み合わせしたサーバであってもよい。
本開示の技術案において、係る歩行者データの採集、記憶、適用、加工、伝送、提供及び公開という処理は、いずれも相関法規則の規定に適合し、且つ公序良俗に反するものではない。
以上に示された様々な形式のフローを使用してもよく、ステップを改めてソーティングしたり、追加したりまたは削除してもよいと理解されるべきである。例えば、本開示に記載の各ステップは、並列に実行されたり、順次に実行されたり、または異なる順序で実行されてもよく、本開示に開示された技術案の所望の結果を実現することができれば、本明細書はここで限定されない。
上記具体的な実施形態は、本開示の保護範囲を限定するものではない。当業者であれば、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション及び代替を行うことが可能であると理解すべきである。本開示の精神と原則内で行われる任意の修正、均等置換及び改良などは、いずれも本開示の保護範囲内に含まれるべきである。

Claims (17)

  1. 無人車両運転ポリシーの調整方法であって、
    無人車両の前方の予め設定された範囲内に少なくとも1つの歩行者を検出したことに応じて、前記少なくとも1つの歩行者の感情を検出することと、
    前記少なくとも1つの歩行者に特定感情を表現する対象歩行者を検出したことに応じて、前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整することと、を含む、無人車両運転ポリシーの調整方法。
  2. 請求項1に記載の方法において、
    前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整する前に、
    前記対象歩行者が前記無人車両を注視しているか否かを検出することをさらに含み、
    前記対象歩行者が前記無人車両を注視していることを検出したことに応じて、前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整する操作を実行する、無人車両運転ポリシーの調整方法。
  3. 請求項2に記載の方法において、
    前記対象歩行者が前記無人車両を注視していないことを検出したことに応じて、前記対象歩行者が視覚障害者であるか否かを検出することをさらに含み、
    前記対象歩行者が視覚障害者であると検出したことに応じて、前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整する操作を実行する、無人車両運転ポリシーの調整方法。
  4. 請求項1~3のいずれか一項に記載の方法において、
    前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整することは、
    前記特定感情が、前記対象歩行者が前記無人車両に恐れを感じていることを示す場合、前記無人車両を、前記対象歩行者から離れる側に車線変更するように制御することと、
    前記特定感情が、前記対象歩行者が焦っていることを示す場合、前記無人車両を、速度を増やして通行する、または停車しかつ歩行者の先行を合図するように制御することとの少なくとも1つを含む、無人車両運転ポリシーの調整方法。
  5. 請求項4に記載の方法において、
    前記無人車両を、前記対象歩行者から離れる側に車線変更するように制御することは、
    前記無人車両の車速が最低速度制限に等しい場合、前記無人車両を、前記対象歩行者から離れる側に車線変更するように制御するだけのことと、
    前記無人車両の車速が最低速度制限より高い場合、前記無人車両を、前記対象歩行者から離れる側に減速して車線変更するように制御することと、の少なくとも1つを含む、無人車両運転ポリシーの調整方法。
  6. 請求項4に記載の方法において、
    前記無人車両を、速度を増やして通行する、または停車しかつ歩行者の先行を合図するように制御することは、
    前記無人車両の車速が最高速度制限より低い場合、前記無人車両を、速度を増やして通行するように制御すること、または、
    前記無人車両の車速が最高速度制限に等しい場合、前記無人車両を、停車しかつ歩行者の先行を合図するように制御することを含む、無人車両運転ポリシーの調整方法。
  7. 請求項1に記載の方法において、
    前記少なくとも1つの歩行者の感情を検出することは、
    前記無人車両が採集した画像データ及び/または前記少なくとも1つの歩行者の個人用ウェアラブルデバイスが報告したデータに基づいて、前記少なくとも1つの歩行者の感情を検出することを含む、無人車両運転ポリシーの調整方法。
  8. 無人車両運転ポリシーの調整装置であって、
    無人車両の前方の予め設定された範囲内に少なくとも1つの歩行者を検出したことに応じて、前記少なくとも1つの歩行者の感情を検出する第1の検出モジュールと、
    前記少なくとも1つの歩行者に特定感情を表現する対象歩行者を検出したことに応じて、前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整する調整モジュールと、を含む、無人車両運転ポリシーの調整装置。
  9. 請求項8に記載の装置において、
    前記調整モジュールが前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整する前に、
    前記対象歩行者が前記無人車両を注視しているか否かを検出する第2の検出モジュールをさらに含み、
    前記第2の検出モジュールにより前記対象歩行者が前記無人車両を注視していることが検出されたことに応じて、前記調整モジュールは、前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整する操作を実行する、無人車両運転ポリシーの調整装置。
  10. 請求項9に記載の装置において、
    前記第2の検出モジュールにより前記対象歩行者が前記無人車両を注視していないことが検出されたことに応じて、前記対象歩行者が視覚障害者であるか否かを検出する第3の検出モジュールをさらに含み、
    前記第3の検出モジュールにより前記対象歩行者が視覚障害者であることが検出されたことに応じて、前記調整モジュールは、前記特定感情に基づいて、前記無人車両の現在の運転ポリシーを調整する操作を実行する、無人車両運転ポリシーの調整装置。
  11. 請求項8~10のいずれか一項に記載の装置において、
    前記調整モジュールは、
    前記特定感情が、前記対象歩行者が前記無人車両に恐れを感じていることを示す場合、前記無人車両を、前記対象歩行者から離れる側に車線変更するように制御する第1の制御手段と、
    前記特定感情が、前記対象歩行者が焦っていることを示す場合、前記無人車両を、速度を増やして通行する、または停車しかつ歩行者の先行を合図するように制御する第2の制御手段と、の少なくとも1つにより対応する操作を実行するために用いられる、無人車両運転ポリシーの調整装置。
  12. 請求項11に記載の装置において、
    前記第1の制御手段は、
    前記無人車両の車速が最低速度制限に等しい場合、前記無人車両を、前記対象歩行者から離れる側に車線変更するように制御するだけの操作と、
    前記無人車両の車速が最低速度制限より高い場合、前記無人車両を、前記対象歩行者から離れる側に減速して車線変更するように制御する操作と、の少なくとも1つを実行するために用いられる、無人車両運転ポリシーの調整装置。
  13. 請求項11に記載の装置において、
    前記第2の制御手段は、さらに、
    前記無人車両の車速が最高速度制限より低い場合、前記無人車両を、速度を増やして通行するように制御する、または、
    前記無人車両の車速が最高速度制限に等しい場合、前記無人車両を、停車しかつ歩行者の先行を合図するように制御するために用いられる、無人車両運転ポリシーの調整装置。
  14. 請求項8に記載の装置において、
    前記第1の検出モジュールは、さらに、
    前記無人車両が採集した画像データ及び/または前記少なくとも1つの歩行者の個人用ウェアラブルデバイスが報告したデータに基づいて、前記少なくとも1つの歩行者の感情を検出するために用いられる、無人車両運転ポリシーの調整装置。
  15. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信接続されたメモリとを備え、
    前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令を記憶しており、
    前記命令は、前記少なくとも1つのプロセッサが請求項1~7のいずれか一項に記載の方法を実行することができるように、前記少なくとも1つのプロセッサにより実行される電子機器。
  16. コンピュータ命令が記憶された非一時的なコンピュータ読取可能な記憶媒体であって、
    前記コンピュータ命令は、前記コンピュータに請求項1~7のいずれか一項に記載の方法を実行させる記憶媒体。
  17. プロセッサにより実行される場合、請求項1~7のいずれか一項に記載の方法を実現するコンピュータプログラム。
JP2022096459A 2021-06-25 2022-06-15 無人車両運転ポリシーの調整方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム Active JP7356542B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110715785.0 2021-06-25
CN202110715785.0A CN113428176B (zh) 2021-06-25 2021-06-25 无人车驾驶策略的调整方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
JP2022113841A true JP2022113841A (ja) 2022-08-04
JP7356542B2 JP7356542B2 (ja) 2023-10-04

Family

ID=77754850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022096459A Active JP7356542B2 (ja) 2021-06-25 2022-06-15 無人車両運転ポリシーの調整方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム

Country Status (5)

Country Link
US (1) US20220324485A1 (ja)
EP (1) EP4043311A3 (ja)
JP (1) JP7356542B2 (ja)
KR (1) KR20220092820A (ja)
CN (1) CN113428176B (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718907A (zh) * 2016-01-25 2016-06-29 大连楼兰科技股份有限公司 基于导盲犬特征与车载摄像头的盲人检测识别方法与系统
US20170057497A1 (en) * 2015-08-28 2017-03-02 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
WO2019031002A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 制御システムおよび制御方法
WO2019116643A1 (ja) * 2017-12-12 2019-06-20 ソニー株式会社 情報処理装置および情報処理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7042345B2 (en) * 1996-09-25 2006-05-09 Christ G Ellis Intelligent vehicle apparatus and method for using the apparatus
US10192171B2 (en) * 2016-12-16 2019-01-29 Autonomous Fusion, Inc. Method and system using machine learning to determine an automotive driver's emotional state
CN107072867A (zh) * 2016-12-26 2017-08-18 深圳前海达闼云端智能科技有限公司 一种盲人安全出行实现方法、系统以及可穿戴设备
US10467893B1 (en) * 2018-06-29 2019-11-05 At&T Intellectual Property I, L.P. Connected vehicle technology to assist visually impaired
CN109334566B (zh) * 2018-08-31 2022-01-25 阿波罗智联(北京)科技有限公司 用于提供车外反馈的方法、装置、设备和存储介质
CN111382642A (zh) * 2018-12-29 2020-07-07 北京市商汤科技开发有限公司 人脸属性识别方法及装置、电子设备和存储介质
US10780897B2 (en) * 2019-01-31 2020-09-22 StradVision, Inc. Method and device for signaling present driving intention of autonomous vehicle to humans by using various V2X-enabled application
CN110341722A (zh) * 2019-07-25 2019-10-18 百度在线网络技术(北京)有限公司 自动驾驶车辆的行驶方法和装置、电子设备、可读介质
US11150665B2 (en) * 2019-09-17 2021-10-19 Ha Q Tran Smart vehicle
CN112572462B (zh) * 2019-09-30 2022-09-20 阿波罗智能技术(北京)有限公司 自动驾驶的控制方法、装置、电子设备及存储介质
CN112622937B (zh) * 2021-01-14 2021-10-12 长安大学 一种面对行人时自动驾驶汽车的通行权决策方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170057497A1 (en) * 2015-08-28 2017-03-02 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
CN105718907A (zh) * 2016-01-25 2016-06-29 大连楼兰科技股份有限公司 基于导盲犬特征与车载摄像头的盲人检测识别方法与系统
WO2019031002A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 制御システムおよび制御方法
WO2019116643A1 (ja) * 2017-12-12 2019-06-20 ソニー株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
CN113428176A (zh) 2021-09-24
CN113428176B (zh) 2023-11-14
EP4043311A2 (en) 2022-08-17
US20220324485A1 (en) 2022-10-13
EP4043311A3 (en) 2023-04-05
JP7356542B2 (ja) 2023-10-04
KR20220092820A (ko) 2022-07-04

Similar Documents

Publication Publication Date Title
US20200250462A1 (en) Key point detection method and apparatus, and storage medium
US20200317190A1 (en) Collision Control Method, Electronic Device and Storage Medium
CN108028016B (zh) 增强现实显示系统
US20200005060A1 (en) Machine learning based driver assistance
US11535261B2 (en) Medical monitoring virtual human with situational awareness
JP6744679B2 (ja) ヒューマンマシンハイブリッド意思決定方法および装置
US10655978B2 (en) Controlling an autonomous vehicle based on passenger behavior
KR20190098091A (ko) 이미지 데이터에서 사용자를 인식하는 인공 지능 장치 및 그 방법
KR20210052634A (ko) 운전자의 부주의를 판단하는 인공 지능 장치 및 그 방법
US11158188B2 (en) Autonomous vehicle safety system
US11775054B2 (en) Virtual models for communications between autonomous vehicles and external observers
US20210077006A1 (en) Cognitive state-based seamless stimuli
US10821886B1 (en) Sensor-based acknowledgments between road traffic participants
Zhou et al. Vetaverse: A survey on the intersection of Metaverse, vehicles, and transportation systems
US11938959B2 (en) Driving assistance device, system thereof, and method thereof
CN112991684A (zh) 一种驾驶预警的方法及装置
US10691945B2 (en) Altering virtual content based on the presence of hazardous physical obstructions
Kim et al. What and When to Explain? On-road Evaluation of Explanations in Highly Automated Vehicles
Tomari et al. Enhancing wheelchair manoeuvrability for severe impairment users
JP2022113841A (ja) 無人車両運転ポリシーの調整方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム
Sugashini et al. YOLO glass: video-based smart object detection using squeeze and attention YOLO network
US20210290129A1 (en) State estimation device, method and computer program therefor
KR20230020338A (ko) 자율 주행 차량의 제어 방법, 장치, 전자 기기 및 판독 가능 기록 매체
US20190351915A1 (en) Vehicle content based symbiosis for vehicle occupants
Qu Study and Analysis of Machine Learning Techniques for Detection of Distracted Drivers

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230922

R150 Certificate of patent or registration of utility model

Ref document number: 7356542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150