JP7012693B2 - 情報処理装置、車両システム、情報処理方法、およびプログラム - Google Patents

情報処理装置、車両システム、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP7012693B2
JP7012693B2 JP2019173242A JP2019173242A JP7012693B2 JP 7012693 B2 JP7012693 B2 JP 7012693B2 JP 2019173242 A JP2019173242 A JP 2019173242A JP 2019173242 A JP2019173242 A JP 2019173242A JP 7012693 B2 JP7012693 B2 JP 7012693B2
Authority
JP
Japan
Prior art keywords
detection unit
vehicle
detection
unit
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019173242A
Other languages
English (en)
Other versions
JP2021051466A (ja
Inventor
達也 小西
克規 宮澤
健太 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019173242A priority Critical patent/JP7012693B2/ja
Priority to CN202010991885.1A priority patent/CN112550263A/zh
Priority to US17/024,834 priority patent/US20210086787A1/en
Publication of JP2021051466A publication Critical patent/JP2021051466A/ja
Application granted granted Critical
Publication of JP7012693B2 publication Critical patent/JP7012693B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • B60W10/06Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • B60W10/08Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of electric propulsion units, e.g. motors or generators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4045Intention, e.g. lane change or imminent movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/06Combustion engines, Gas turbines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/08Electric propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles

Description

本発明は、情報処理装置、車両システム、情報処理方法、およびプログラムに関する。
従来、ミリ波レーダと画像センサと信号処理部とを具備する周辺監視センサにおいて、信号処理部は、所定のエリア内に存在する物体については、前記ミリ波レーダから取得した情報と前記画像センサから取得した情報とを合成して、物体に関する情報を作成する周辺監視センサが開示されている(例えば、特許文献1参照)。
特開2001-99930号公報
しかしながら、従来の技術では、物体が移動を開始していない場合であっても、物体が移動を開始したとみなしてしまう場合があった。
本発明は、このような事情を考慮してなされたものであり、より精度よく物体が移動を開始したことを認識することができる情報処理装置、車両システム、情報処理方法、およびプログラムを提供することを目的の一つとする。
この発明に係る情報処理装置、車両システム、情報処理方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る情報処理装置は、車両の周辺の物体を検出する第1検出部と、前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部と、前記第1検出部および前記第2検出部の検出結果に基づいて前記物体が移動を開始した否かを判定する判定部と、を備え、前記判定部は、前記車両と前記物体とが停止状態である場合において、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定する情報処理装置である。
(2):上記(1)の態様において、前記判定部は、前記車両と前記物体とが停止状態であり、且つ前記物体が前記車両の前方の所定の範囲内に存在する場合に、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定する。
(3):上記(1)または(2)の態様において、前記判定部は、前記判定を開始する前において、前記第1検出部が異なるタイミングで検出した物体の同定がなされ、且つ前記第2検出部が異なるタイミングで検出した物体の同定がなされた場合に、前記判定を開始する。
(4):上記(1)-(3)のいずれかの態様において、前記判定部は、前記第1検出部の検出結果に基づいて前記物体の状態が速度または位置に関する条件a、条件b、または条件cのうち少なくとも2つ以上の条件を満たしたと判定し、且つ前記第2検出部の検出結果に基づいて前記物体の状態が速度または位置に関する条件a、条件b、または条件cのうち少なくとも2つ以上の条件を満たしたと判定した場合に、前記物体が移動を開始したと判定し、前記条件aは、前記物体の現在の速度が第1閾値以上であることであり、前記条件bは、前記物体の現在の速度が現在から所定時間前の前記物体の速度よりも第2閾値以上速いことであり、前記条件cは、前記物体の現在の位置が所定時間前の前記物体の位置から第3閾値以上離れていることである。
(5):上記(1)-(4)のいずれかの態様において、前記判定部は、前記第1検出部の検出結果に基づいて前記車両の状態が第1条件を満たし、且つ、前記第2検出部の検出結果に基づいて前記車両の状態が前記第1条件を満たした場合に、前記物体が移動したと判定し、前記第1条件は、前記物体の現在の速度が第4閾値以上であることと、前記物体の状態が条件a、条件bまたは条件cのうち少なくとも2つ以上の条件を満たすこととのうち一方または双方を満たすことであり、前記条件aは、前記物体の現在の速度が第1閾値以上であることであり、前記条件bは、前記物体の現在の速度が現在から所定時間前の前記物体の速度よりも第2閾値以上速いことであり、前記条件cは、前記物体の現在の位置が所定時間前の前記物体の位置から第3閾値以上離れていることである。
(6):上記(1)-(3)のいずれかの態様において、前記判定部は、前記第1検出部の検出結果に基づいて前記車両の状態が第1条件を満たし、且つ、前記第2検出部の検出結果に基づいて前記車両の状態が前記第1条件を満たした場合に、前記物体が移動したと判定し、前記第1条件は、前記物体の現在の速度が第4閾値以上であることと、前記物体の状態が条件a、条件bおよび条件cのうち少なくとも2つ以上の条件を満たすこととのうち一方または双方を満たし、且つ、前記物体が前記車両から離れる方向に移動していることであり、前記条件aは、前記物体の現在の速度が第1閾値以上であることであり、前記条件bは、前記物体の現在の速度が現在から所定時間前の前記物体の速度よりも第2閾値以上速いことであり、前記条件cは、前記物体の現在の位置が所定時間前の前記物体の位置から第3閾値以上離れていることである。
(7):上記(5)または(6)の態様において、前記第1検出部および前記第2検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第3検出部と、前記第1検出部、前記第2検出部および前記第3検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第4検出部と、を更に備え、前記判定部は、 前記第3検出部の検出結果に基づいて前記車両の状態が前記第1条件を満たさず、且つ、前記第4検出部の検出結果が前記第1条件を満たさない場合に、前記物体が移動していないことを確定する。
(8):上記(1)-(7)のいずれかの態様において、前記第1検出部および前記第2検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第3検出部と、前記第1検出部、前記第2検出部および前記第3検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第4検出部と、を更に備え、前記判定部は、前記車両と前記物体とが停止状態である場合において、前記第3検出部の検出結果が、前記物体が移動を開始していないことを示し、且つ前記第4検出部の検出結果が、前記物体が移動を開始していないことを示す場合に、前記物体が移動を開始していないと判定する。
(9):上記(1)-(8)のいずれかの態様において、前記第1検出部と前記第2検出部のそれぞれは、前記車両の周辺の風景を撮像するカメラ、前記車両の周辺に電波を放射し、放射した前記電波が物体によって反射された電波に基づいて前記物体を検出するレーダ装置、または前記車両の周辺に光を照射し、照射した光が前記物体によって反射された光に基づいて前記物体を検出する光学装置のいずれかである。
(10):上記(1)-(9)のいずれかの態様において、前記第1検出部は、第1種別の検出部であり、前記第2検出部は、前記第1種別の機能構成とは異なる機能構成を有する検出部である。
(11):この発明の一態様に係る情報処理装置は、検出範囲の少なくとも一部が重なる車両の周辺の物体を検出する複数の検出部と、前記複数の検出部の検出結果に基づいて前記物体が移動を開始したか否かを判定する判定部と、を備え、前記判定部は、前記車両と前記物体とが停止状態である場合に、前記複数の検出部に含まれる、それぞれの検出部の検出結果ごとに前記物体が移動を開始しているか否かを判定し、前記判定結果において肯定的な判定結果の数が閾値以上である場合、前記物体が移動を開始したと判定する、情報処理装置である。
(12):上記(1)-(11)のいずれかの態様の情報処理装置と、前記情報処理装置の前記判定部の判定結果に基づいて、前記車両の挙動を制御する車両制御装置と、を備えた車両システムである。
(13):この発明の一態様に係る車両制御方法は、コンピュータが、車両の周辺の物体を検出する第1検出部の検出結果と前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部の検出結果とを取得し、前記車両と前記物体とが停止状態である場合において、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定する情報処理方法である。
(14):この発明の一態様に係るプログラムは、コンピュータに、車両の周辺の物体を検出する第1検出部の検出結果と前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部の検出結果とを取得させ、前記車両と前記物体とが停止状態である場合において、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定させるプログラムである。
(1)-(14)によれば、より精度よく物体が移動を開始したことを判定することができる。例えば、移動時に比べて車両および他車両が停止している場合、検出部の検出誤差が影響して他車両の発進について誤判定がされやすいが、情報処理装置は、車両および他車両が停止している場合であっても、精度よく他車両が移動を開始したことを判定して認識することができる。
(2)によれば、情報処理装置は、物体の挙動が車両に影響を及ぼす領域に存在する物体の移動の開始を精度よく認識させることができる。
(3)によれば、情報処理装置は、2つ以上の検出部の検出結果のそれぞれにおいて継続して検出されている物体を判定対象にすることにより、判定対象を絞り込むことができる。
(7)、(8)によれば、情報処理装置は、2つの検出部の検出結果に基づいて物体が移動を開始していないと判定した場合、物体が移動を開始していないことを認識することにより、誤判定を抑制することができる。
(10)によれば、第1検出部と、第2検出部とは、異なる機能構成を有するため、それぞれの検出結果において同様の誤差が含まれる可能性が低い。このため、情報処理装置は、誤差に基づいて物体が移動を開始したと判定することを抑制し、物体の移動の開始をより精度よく判定することができる。
(12)によれば、車両が、判定部の判定結果を参照することにより、より精度良くおよび応答性良く物体の挙動に応じた制御を実現することができる。
実施形態に係る車両制御装置を利用した車両システム2の構成図である。 第1制御部120および第2制御部160の機能構成図である。 自動運転制御装置100により実行される処理の流れの一例を示すフローチャート(その1)である。 所定領域と、所定領域内に存在する物体との一例を示す図である。 物体情報182の内容の一例を示す図である。 自動運転制御装置100により実行される特定判定処理の流れの一例を示すフローチャート(その2)である。 条件1、条件2、条件3について説明するための図である。 判定結果情報184の内容の一例を示す図である。 自動運転制御装置100により実行される処理の流れの一例を示すフローチャート(その3)である。 自動運転制御装置100により実行される処理の流れの一例を示すフローチャート(その4)である。 比較例の自動運転制御装置が車両Xを制御する場面を示す図である。 本実施形態の自動運転制御装置100が車両Mを制御する場面を示す図である。 第2実施形態の車両システム2Aの一例を示す図である。 第3実施形態の自動運転制御装置100により実行される処理の流れの一例を示すフローチャートである。 第4実施形態の車両システム2Bの機能構成の一例を示す図である。 実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。
<第1実施形態>
[全体構成]
図1は、実施形態に係る車両制御装置を利用した車両システム2の構成図である。車両システム2が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両システム2は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム2が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に取り付けられる。
物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。車両システム2から物体認識装置16が省略されてもよい。
物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果を自動運転制御装置100に提供してもよい。この場合、自動運転制御装置100(後述する認識部130)が、上記の検出結果に基づいて、または検出結果を統合する処理を行って、物体の位置、種類、速度などを認識する。
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。また、地図情報には、道路の車線や道路の車線を区画する道路区画線等を含んでいてもよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、記憶部180とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。記憶部180には、物体情報182と、判定結果情報184とを含む。これらの情報の詳細については後述する。自動運転制御装置100は「車両制御装置」の一例である。
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
認識部130は、カメラ10、レーダ装置12、またはファインダ14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。追従とは、車両Mが、車両の前方を走行する車両との間隔を所定距離維持した状態で前走車両の後方を走行することである。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。また、行動計画生成部140は、例えば、目標軌道を生成する際に、後述する判定部142の判定結果を加味して目標軌道を生成する。
行動計画生成部140は、例えば、判定部142を備える。判定部142は、複数の検出部に含まれる、少なくとも第1検出部および第2検出部の検出結果に基づいて物体が移動を開始した否かを判定する。この判定処理を、以下「特定判定処理」と称する場合がある。特定判定処理の詳細については後述する。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[特定判定処理の概要]
判定部142は、車両Mと物体とが停止状態(または所定速度以下の略停止状態)である場合に、少なくとも第1検出部の検出結果が、物体が移動を開始したことを示し、且つ第2検出部の検出結果が、物体が移動を開始したことを示した場合に、物体が移動を開始したと判定する。第2検出部の検出範囲の少なくとも一部は、第1検出部の検出範囲と重なっている。例えば、本実施形態では、複数の検出部は、カメラ10、レーダ装置12、およびファインダ14である。第1検出部と第2検出部のそれぞれは、カメラ10、レーダ装置12、またはファインダ14のいずれかである。例えば、第2検出部は、カメラ10、レーダ装置12、またはファインダ14のうち、第1検出部とは異なる機能構成であってもよいし、第1検出部と第2検出部とは同等の機能構成を有する検出部であってもよい。例えば、第1検出部が、カメラ10である場合、第2検出部は、レーダ装置12またはファインダ14であってもよいし、例えば、車両システム2が、第1カメラと第2カメラとを備える場合、第1検出部は第1カメラであり、第2検出部は第2カメラであってもよい。
なお、第1検出部と第2検出部とは、同じ機能構成であるよりも異なる機能構成である方が好適である。すなわち、第1検出部は、第1種別の検出部であり、第2検出部は、第1種別の機能構成とは異なる機能構成を有する検出部であってもよい。第1検出部と第2検出部とが異なる機能構成であれば、第1検出部と第2検出部との検出結果において、同じタイミングや要因等により、同様の誤差が含まれる可能性が低い。このため、誤差に基づいて物体の移動の開始を判定することが抑制され、判定部142は、物体の移動の開始をより精度よく判定することができる。
[フローチャート(その1)]
図3は、自動運転制御装置100により実行される処理の流れの一例を示すフローチャート(その1)である。本フローチャートは、判定部142が、特定判定処理を実行するか否かを決定するための処理である。図3、および後述する各フローチャートの処理の一部は省略されてもよいし、処理の順序は適宜変更されてもよい。
まず、判定部142は、所定領域内に物体が存在するか否を判定する(ステップS100)。所定領域内に物体が存在する場合(後述する図4参照)、判定部142は、車両Mが停車しているか否か(または所定速度以下の略停車状態であるか否か)を判定する(ステップS102)。車両Mが停車している場合、判定部142は、物体情報182を参照して、物体が同定され、且つ特定判定処理を行うための判定情報が取得されているか否かを判定する(ステップS104)。物体情報182および判定情報の詳細については後述する。
物体が同定され、且つ判定情報が取得されている場合、判定部142は、特定判定処理を実行する(ステップS106)。物体が同定されていない場合、または物体が同定されているが判定情報が取得されていない場合、判定部142は、特定判定処理を実行しない(ステップS108)。また、ステップS102、およびステップS104の判定において、否定的な判定がされた場合、ステップS108の処理が行われる。これにより、本フローチャートの処理が終了する。
[所定領域について]
図4は、所定領域と、所定領域内に存在する物体との一例を示す図である。以下、車両Mの進行方向をX方向、車両Mの幅方向をY方向と称する場合がある。所定領域ARは、車両Mの基準位置(例えば重心)から、プラスY方向およびマイナスY方向に第1距離d1の範囲を、基準位置からプラスX方向に第2距離d2まで延出させた領域である。物体は車両Mの前方に存在する物体A(他車両)であるものとする。判定部142は、車両Mが停車し、所定領域AR内に物体Aが存在する場合に、物体Aが同定され、且つ判定情報を取得したか否かを判定する。
[物体情報と判定情報について]
図5は、物体情報182の内容の一例を示す図である。物体情報182は、複数の検出部の検出結果を含む情報である。例えば、物体情報182は、カメラ10の検出結果に基づいて得られた情報、レーダ装置12の検出結果に基づいて得られた情報、およびファインダ14の検出結果に基づいて得られた情報を含む。検出結果に基づいて得られた情報とは、例えば、物体の識別情報と、時刻ごとの物体の位置または速度とが対応付けられた情報である。時刻ごとの物体の位置または速度とは、検出部の処理周期ごとの検出結果に基づいて取得された物体の状態(位置または速度)である。
判定部142は、物体情報182を参照して、物体が同定されているか否かを判定する。図5の例では、物体Aに関して、異なるタイミングで複数の検出部の検出結果において物体Aが認識され、この物体Aの認識結果が物体情報182に含まれている。このため、判定部142は、物体Aが同定されていると判定する。例えば、判定部142は、異なるタイミングで得られたカメラ10の検出結果において、物体A(同一物体)を認識した場合、カメラ10の検出結果において物体Aが同定されていると判定する。判定部142は、上記と同様に、異なるタイミングで得られたレーダ12の検出結果および異なるタイミングで得られたファインダ14の検出結果のそれぞれにおいて、物体Aが同定されているか否かを判定する。例えば、認識部130は、カルマンフィルタなどの追跡手法に基づいて、異なる時刻において認識された物体が同一の物体であることを認識する(物体を同定する)。
判定部142は、特定判定処理を行うための判定情報が取得されているか否かを判定する。判定部142は、第1検出部が異なるタイミングで検出した物体Aの状態が取得され、且つ第2検出部が異なるタイミングで検出した物体Aの状態が取得されている場合、判定情報が取得されたと判定する。
後述する図6、図9のフローチャートの処理で示すように、判定部142は、所定数(少なくとも2つ)の検出部の検出結果において物体Aが同定され、更に、第1検出部が異なるタイミングで検出した物体Aの状態および第2検出部が異なるタイミングで検出した物体Aの状態が取得された場合、特定判定処理が実行され、物体が移動を開始したか否かを判定する。所定数の検出部とは、対象の2つ以上の検出部であって、例えば、本実施形態ではカメラ10、レーダ装置12、およびファインダ14である。対象の検出部(または2つ以上の検出部)のそれぞれに関連付けられた物体情報182において、所定の物体(例えば物体A)が同定され、且つ所定の物体に関する判定情報が取得されている場合、判定部142は、(物体Aに関する)特定判定処理を実行する。
例えば、判定部142は、現在の時刻(例えば時刻t)の物体Aの状態と、現在の時刻よりも前の時刻(例えば時刻t-2)の上記の物体Aの状態(図中、S)とが、物体情報182に含まれている場合、判定情報が取得されていると判定する。すなわち、異なる時刻において、物体の状態が認識されている場合、判定情報が取得されていると判定される。図5の例では、カメラ10に関連付けられた物体情報182において、物体Aに関する判定情報は取得され、物体Cに関する判定情報は取得されていない。
なお、上記の例では、判定部142は、時刻tの物体の状態と、時刻t-2の上記の物体の状態とが、物体情報182に含まれているか否かについて判定したが、これに代えて、任意の異なる時刻の物体の状態とが、物体情報182に含まれていか否かについて判定してもよい。例えば、実験結果やシミュレーション結果に基づいて、好適な二つの時刻が決定され、この時刻が用いられてもよい。
上述したように、判定部142は、特定判定処理を行うための条件が満たされているか否かを判定し、条件が満たされている場合、特定判定処理を行うため、不要な特定判定処理を抑制し、処理負荷を軽減することができる。
[フローチャート(その2)]
図6は、自動運転制御装置100により実行される特定判定処理の流れの一例を示すフローチャート(その2)である。本フローチャートにおける条件1、条件2、および条件3については後述する。
まず、判定部142は、対象の検出部の中から、一つの検出部を選択する(ステップS200)。次に、判定部142は、物体情報182を参照して、対象物体が条件1または条件2を満たすか否かを判定する(ステップS202)。対象物体とは、ステップS100で選択された検出部の検出結果に基づいて認識された物体(例えば他車両である物体A)である。対象物体が条件1または条件2を満たさない場合、ステップS206の処理に進む。
対象物体が条件1または条件2を満たす場合、判定部142は、対象物体が条件3を満たす否かを判定する(ステップS204)。次に、判定部142は、ステップS202、またはステップS202とステップS204との判定結果を記憶部に記憶させる(ステップS206)。これにより、判定結果情報184(図8参照)が生成される。条件1と条件2との一方または双方を含む条件、または、条件1と条件2との一方または双方を含む条件と条件3とを含む条件は「第1条件」の一例である。
次に、判定部142は、全ての対象の検出部を選択したか否かを判定する(ステップS208)。全ての対象の検出部を選択していない場合、判定部142は、ステップS200の処理に戻り、選択していない検出部を選択し、ステップS202-ステップS206の処理を実行する。これにより、本フローチャートの処理が終了する。
図7は、条件1、条件2、条件3について説明するための図である。条件1、条件2、および条件3は、以下である。
条件1;対象物体の現在の速度が閾値A(例えば1.2m/sec)以上であること。対象物体の現在の速度が閾値A以上であるということは、条件2を満たさなくても、対象物体が移動を開始したとみなせる。閾値Aは「第4閾値」の一例である。
条件2;以下の条件(a)、(b)、(c)のうち、2つ以上の条件を満たすこと。条件1を満たさなくても、条件2(条件(a)-(c)のうち2つ以上の条件)を満たせば、対象物体が移動を開始したとみなせる。条件(a)-(c)のそれぞれは、条件1よりも優しい条件である。すなわち、条件1を満たさなくても、条件1よりも優しい複数の条件が満たされれば、対象物体が移動を開始したとみなされる。
条件(a);対象物体の現在の速度が閾値a(例えば0.8m/sec)以上であること。閾値aは、閾値Aよりも小さい値である。
条件(b);対象物体の現在の速度から対象物体の所定時間前の速度を減算した値が閾値b(例えば0.5m/sec)以上であること。閾値bは、閾値aよりも小さい値である。
条件(c);対象物体の所定時間前の位置に対して対象物体の現在の位置が閾値c(例えば0.4m)以上ずれていること。
閾値aは「第1閾値」の一例であり、閾値bは「第2閾値」の一例であり、閾値cは「第3閾値」の一例である。
条件3;対象物体が車両Mから離れる方向(X方向)に移動していること。換言すると、対象物体の現在の速度が正であることである。例えば、検出部の検出結果に基づいて、マイナスX方向に物体が移動しているような誤差が生じて、条件1または条件2が満たされた場合であっても、条件3が存在することで、対象物体のプラスX方向への発進を精度よく判定することができる。
上記のように、条件1と、条件2(条件(a)、(b))とで速度に関する閾値の大きさを異ならせることにより、精度よく且つ迅速に物体の移動の開始が判定され、条件3で誤判定が抑制される。このように、判定部142は、条件1、条件2および条件3を用いることにより、誤判定を抑制しつつ、迅速かつ精度よく物体の移動の開始を判定することができる。
なお、条件3において、プラスX方向に発進にしていることが判定されることに代えて(加えて)、マイナスX方向(または所定の方向)に移動したことが判定されてもよい。また、判定部142は、対象物体の移動方向に基づいて、対象物体が移動した方向を判定してもよい。
図8は、判定結果情報184の内容の一例を示す図である。図8は、例えば、所定の対象物体(例えば、物体A)に関する判定結果情報184の一例である。図8に示すように、判定結果情報184には、検出部ごとに対象物体が各条件を満たす、または満たさないことを示す情報、および検出部ごとの統合判定結果を示す情報が含まれる。統合判定結果とは、判定部142が一つの検出部の検出結果に基づいて、対象物体が発進したか否かを判定した結果を示す情報である。例えば、判定部142は、条件1または条件2を満たし、条件3を満たした場合、統合判定結果として対象物体が発進したことを示す情報を判定結果情報184に含め、条件1または条件2を満たさない場合、または条件3を満たさない場合、統合判定結果として対象物体が発進していないことを示す情報を判定結果情報184に含める。
なお、判定部142は、上述した、条件1、条件(a)、条件(b)、条件(c)、条件3の全部または一部を満たした場合に、対象物体が移動したことを判定してもよい。一部とは、任意の条件であって、例えば、条件1および条件(b)などの任意の組み合わせである。
[フローチャート(その3)]
図9は、自動運転制御装置100により実行される処理の流れの一例を示すフローチャート(その3)である。本フローチャートの処理は、図6のフローチャートの処理の後または図6のフローチャートの処理と並列して実行される処理である。
まず、判定部142は、判定結果情報184を参照して(ステップS300)、2つ以上の検出部の統合判定結果において対象物体が発進したことを示しているか否かを判定する(ステップS302)。換言すると、判定部142は、二つ以上の検出部が、対象物体が条件1または条件2を満たし、且つ条件3を満たす検出結果を提供したか否かを判定する。
2つ以上の検出部の統合判定結果において対象物体が発進したことを示している場合、判定部142は、対象物体が発進したと判定する(ステップS304)。2つ以上の検出部の統合判定結果において対象物体が発進したことを示していない場合、判定部142は、対象物体が発進していないと判定する(ステップS306)。これにより、本フローチャートの処理が終了する。
上述したように、判定部142が、統合判定結果に基づいて、対象物体が発進したか否かを判定することにより、より精度よく物体が移動を開始したと判定することができる。この判定結果は、例えば、図10で説明する例の他、車両Mの種々の制御に用いられる。
[フローチャート(その4)]
図10は、自動運転制御装置100により実行される処理の流れの一例を示すフローチャート(その4)である。本フローチャートは、例えば、車両Mが所定のモードである場合に実行される処理である。また、上述した特定判定処理も、車両Mが所定のモードである場合に実行されてもよい。所定のモードとは、車両Mの直前を走行する前走車両を追従する走行モードや、前走車両の発進に応じて車両Mを発進させる走行モード、TJP(Traffic Jam Pilot)モード等である。TJPモードとは、例えば、道路の混雑度が所定度合以上の場合に車両Mが所定速度(例えば60[km/h])以下で前走車両に追従するモードである。
まず、自動運転制御装置100は、他車両が停車しているか否かを判定する(ステップS400)。他車両が停車している場合、行動計画生成部140は、他車両が発進したことを判定部142が判定したか否かを判定する(ステップS402)。他車両が発進したことを判定部142が判定していない場合、本フローチャートの1ルーチンの処理が終了する。他車両が発進したことを判定部142が判定した場合、行動計画生成部140は、他車両の発進に応じた挙動を行う(ステップS404)。例えば、行動計画生成部140は、車両を発進させて他車両を追従する。これにより、本フローチャートの処理が終了する。なお、自動運転制御装置100は、上記のように、他車両が発進したことを判定した場合、車両Mを発進させることに代えて(加えて)、単に車両M(または乗員)に他車両が発進したことを報知してもよい。
[比較例]
図11は、比較例の自動運転制御装置が車両Xを制御する場面を示す図である。比較例の自動運転制御装置は、特定判定処理を実行せず、例えば、所定の検出部(例えばいずれかの検出部)の検出結果に基づいて、他車両が発進したと判定した場合に、車両Xを発進させる。時刻tにおいて、車両Xおよび他車両mが停止している。時刻t+1において、他車両mが停止している状態であるが、車両Xが、例えば、レーダ装置の検出結果に基づいて、他車両mが発進したと判定したものとする。例えば、比較例の自動運転制御装置は、他の検出部(カメラ、ファインダ)の検出結果に基づいて他車両mの発進を検出しなかった、または他の検出部の検出結果については考慮していなかった。時刻t+2において、車両Xは、時刻t+1の判定結果に基づいて発進する。このように、他車両mが停止している場合であっても、検出部の誤検出が原因で車両Mが発進する場合がある。
[本実施形態]
図12は、本実施形態の自動運転制御装置100が車両Mを制御する場面を示す図である。時刻tにおいて、車両Xおよび他車両mが停止している。時刻t+1において、他車両mが停止している状態であるが、車両Mが、例えば、レーダ装置の検出結果に基づいて、他車両mが発進したと判定したものとする。しかしながら、自動運転制御装置100は、他の検出部(カメラ、ファインダ)の検出結果に基づいて他車両mの発進を検出しなかった。この場合、自動運転制御装置100は、他車両mの発進を判定していないため、車両Mを発進させない。
時刻t+2において、例えば、自動運転制御装置100は、2つ以上の検出部の検出結果に基づいて他車両mが発進したことを判定した。時刻t+3において、自動運転制御装置100は、時刻t+2の判定結果に基づいて車両Mを発進させ、他車両mを追従する。
このように、自動運転制御装置100は、他車両mの発進を所定の検出部の検出結果に基づいて判定した場合であっても、車両Mを発進させることを抑制することができ、他車両mの発進を少なくとも2つの所定の検出部の検出結果に基づいて判定した場合には、応答性良く車両Mを発進させることができる。
ここで、自動運転制御装置100が、所定(1つの)の検出部の検出結果を用いて他車両mの発進を判定する場合において、他車両mが発進していないにも関わらず、他車両mが発進したと判定することがある。例えば、検出部による検出結果が車両MのX方向に微振動している(ぶれている)場合がある。自動運転制御装置100は、検出部の検出結果において微振動によって物体の位置がずれたように認識するような場合であっても、物体が移動していると判定する場合がある。
これに対して、本実施形態の自動運転制御装置100は、車両Mと物体とが停止状態である場合に、少なくとも第1検出部の検出結果に基づいて物体が移動を開始し、且つ第2検出部の検出結果に基づいて物体が移動を開始したと判定した場合に、物体が移動を開始したことを判定することにより、精度よく物体が移動を開始したことを認識することができる。
なお、車両Mが移動している場合、微振動があっても車両MもX方向に移動しているため、他車両mの状態の判定に関する微振動の影響は小さい。換言すると、車両Mが移動している場合における車両Mと物体との相対速度に関する誤差の車両Mの挙動に対する影響度は小さい。このため、本実施形態の自動運転制御装置100は、車両Mと物体とが停止状態(略停止状態)である場合に、特定判定処理を実行し、車両Mが所定速度以上で走行している場合は、特定判定処理を実行しない。この結果、車両Mが所定速度以上で走行している場合における自動運転制御装置100の装置の処理負荷が軽減される。
以上説明した第1実施形態によれば、判定部142が、車両Mと物体とが停止状態である場合に、少なくとも第1検出部の検出結果が、物体が移動を開始したことを示し、且つ第2検出部の検出結果が、物体が移動を開始したことを示す場合に、物体が移動を開始したことを判定することにより、より精度よく物体が移動を開始したことを認識することができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態では判定部142は、車両Mと物体とが停止状態(または所定速度以下の略停止状態)である場合に、所定数の検出結果に基づいて物体が移動を開始したと判定し、閾値以上の検出部の検出結果に基づいて物体が移動したと判定した場合、物体が移動を開始したことを判定する。以下、第1実施形態との相違点を中心に説明する。
図13は、第2実施形態の車両システム2Aの一例を示す図である。車両システム2Aは、車両システム2の機能構成に加え、更にカメラ11、レーダ装置13、およびファインダ15を備える。図示する例では、カメラ10、レーダ装置12、ファインダ14、物体認識装置16、および自動運転制御装置100以外の機能構成は省略されている。なお、カメラ10、カメラ11、レーダ装置12、レーダ装置13、ファインダ14、およびファインダ15は、少なくとも検出範囲の一部が重なる「複数の検出部」の一例である。カメラ11はカメラ10と同様の機能構成であり、レーダ装置13はレーダ装置12と同様の機能構成であり、ファインダ15はファインダ14と同様の機能構成である。
判定部142は、例えば、カメラ10、カメラ11、レーダ装置12、レーダ装置13、ファインダ14、およびファインダ15の検出結果のそれぞれに基づいて、物体が移動を開始したか否かを判定する。判定部142は、判定閾値以上の検出部の検出結果に基づいて物体が移動したと判定した場合、物体が移動したことを判定する。判定閾値とは、例えば対象とした検出部の半分や、過半数を判定するための閾値である。また、判定部142は、複数の検出部の検出結果において肯定的な判定結果の数が所定の判定閾値以上でない場合、物体が移動していないと判定してもよい。
以上説明した第2実施形態によれば、判定部142が、車両と物体とが停止状態である場合に、複数の検出部に含まれる、それぞれの検出部の検出結果ごと物体が移動を開始しているか否かを判定し、判定結果において肯定的な判定結果の数が閾値以上である場合、物体が移動を開始したと判定することにより、第1実施形態と同様の効果を奏する。なお、上記の第2実施形態では、複数の検出部は、2つのカメラ、2つのレーダ装置、および2つのファインダを含むものとして説明したが、複数の検出部は、カメラ、レーダ装置、およびファインダのうち、2つ以上の検出部であってもよいし、2つのカメラ、2つのレーダ装置、および2つのファインダのうち、2つ以上の検出部であってもよい。
<第3実施形態>
以下、第3実施形態について説明する。第3実施形態の判定部142は、複数の検出部に含まれる、少なくとも第3検出部の検出結果が物体が移動を開始していないことを示し、且つ第4検出部の検出結果が物体が移動を開始していないことを示した場合に、物体が移動を開始していないと判定する。以下、第1実施形態または第2実施形態との相違点を中心に説明する。
判定部142は、例えば、複数の検出部に含まれる、少なくとも第3検出部の検出結果に基づいて車両Mの状態が第1条件を満たさず、且つ、第4検出部の検出結果に基づいて車両の状態が第1条件を満たさない場合に、物体が移動していないと判定する。
例えば、第2実施形態の車両システム2Aのようにカメラ10-ファインダ15を含み、例えば、カメラ10が「第1検出部」、カメラ11が「第2検出部」、レーダ装置12が「第3検出部」。レーダ装置13が「第4検出部」であるものとする。この場合、例えば、判定部142は、カメラ10およびカメラ11のそれぞれの検出結果に基づいて、物体が移動したと判定したが、レーダ装置12およびレーダ装置13のそれぞれの検出結果に基づいて、物体が移動していないと判定した場合、物体は移動していないと判定する。
図14は、第3実施形態の自動運転制御装置100により実行される処理の流れの一例を示すフローチャートである。図9のフローチャートとの相違点について説明する。例えば、ステップS302で、2つ以上の検出部の統合判定結果が発進を示していると判定した場合、判定部142は、2つ以上の検出部の統合判定結果が発進を示していないか否かを判定する(ステップS303)。ステップS303の判定において否定的な判定結果が得られた場合、判定部142は、対象物体が発進していると判定する(ステップS304)。2つ以上の検出部の統合判定結果が発進を示していないと判定した場合、判定部142は、対象物体が発進していないと判定する(ステップS306)。これにより本フローチャートの処理が終了する。なお、ステップS303の判定は、ステップS302の前に実行されてもよい。
以上説明した第3実施形態によれば、判定部142が、2つ以上の検出部の統合判定結果が発進を示していないか否かを判定することにより、より精度よく物体の移動の開始を認識することができる。
<第4実施形態>
以下、第4実施形態について説明する。第1実施形態では自動運転制御装置100に、判定部142が含まれる、自動運転制御装置100が、判定部142の判定結果を活用する例について説明した。これに対して、第2実施形態では、運転支援制御装置に判定部142が含まれる。
図15は、第4実施形態の車両システム2Bの機能構成の一例を示す図である。車両システム2Aと同様の機能構成の説明については省略する。車両システム2Bは、運転支援制御装置100Aを備える。車両システム2Bでは、MPU60が省略される。
運転支援制御装置100Aは、例えば、第1制御部120Aと、第2制御部160と、記憶部180とを備える。第1制御部120Aは、認識部130と、判定部142と、支援部143とを備える。支援部143は、例えば、設定された所定のモード(例えば、TJPモード)に基づいて車両Mを制御する。支援部143は、判定部142の判定結果に基づいて、他車両mの発進に応じて車両Mを制御する。
以上説明した第4実施形態の運転支援制御装置100Aによれば、第1実施形態と同様の効果を奏する。
[ハードウェア構成]
図16は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100-1、CPU100-2、ワーキングメモリとして使用されるRAM(Random Access Memory)100-3、ブートプログラムなどを格納するROM(Read Only Memory)100-4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100-5、ドライブ装置100-6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100-1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100-5には、CPU100-2が実行するプログラム100-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100-3に展開されて、CPU100-2によって実行される。これによって、認識部130、および行動計画生成部140のうち一部または全部が実現される。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
車両の周辺の物体を検出する第1検出部の検出結果と前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部の検出結果とを取得し、
前記車両と前記物体とが停止状態である場合において、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定する、ように構成されている、
情報処理装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
2‥車両システム、100‥自動運転制御装置、120‥第1制御部、130‥認識部、132‥第1認識部、134‥第2認識部、140‥行動計画生成部、142‥判定部、160‥第2制御部

Claims (12)

  1. 車両の周辺の物体を検出する第1検出部と、
    前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部と、
    前記第1検出部および前記第2検出部の検出結果に基づいて前記物体が移動を開始した否かを判定する判定部と、を備え、
    前記判定部は、前記車両と前記物体とが停止状態である場合において、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定し、
    前記判定部は、前記判定を開始する前において、
    前記第1検出部が異なるタイミングで検出した物体の同定がなされ、且つ
    前記第2検出部が異なるタイミングで検出した物体の同定がなされた場合に、
    前記判定を開始する、
    情報処理装置。
  2. 前記判定部は、前記車両と前記物体とが停止状態であり、且つ前記物体が前記車両の前方の所定の範囲内に存在する場合に、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定する、
    請求項1に記載の情報処理装置。
  3. 車両の周辺の物体を検出する第1検出部と、
    前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部と、
    前記第1検出部および前記第2検出部の検出結果に基づいて前記物体が移動を開始した否かを判定する判定部と、を備え、
    前記判定部は、前記車両と前記物体とが停止状態である場合において、
    前記第1検出部の検出結果に基づいて前記物体の状態が速度または位置に関する条件a、条件b、または条件cのうち少なくとも2つ以上の条件を満たしたと判定し、且つ
    前記第2検出部の検出結果に基づいて前記物体の状態が速度または位置に関する条件a、条件b、または条件cのうち少なくとも2つ以上の条件を満たしたと判定した場合に、前記物体が移動を開始したと判定し、
    前記条件aは、前記物体の現在の速度が第1閾値以上であることであり、
    前記条件bは、前記物体の現在の速度が現在から所定時間前の前記物体の速度よりも第2閾値以上速いことであり、
    前記条件cは、前記物体の現在の位置が所定時間前の前記物体の位置から第3閾値以上離れていることである、
    情報処理装置。
  4. 車両の周辺の物体を検出する第1検出部と、
    前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部と、
    前記第1検出部および前記第2検出部の検出結果に基づいて前記物体が移動を開始した否かを判定する判定部と、を備え、
    前記判定部は、前記車両と前記物体とが停止状態である場合において、
    前記第1検出部の検出結果に基づいて前記車両の状態が第1条件を満たし、且つ、
    前記第2検出部の検出結果に基づいて前記車両の状態が前記第1条件を満たした場合に、前記物体が移動したと判定し、
    前記第1条件は、前記物体の現在の速度が第4閾値以上であることと、前記物体の状態が条件a、条件bまたは条件cのうち少なくとも2つ以上の条件を満たすこととのうち一方または双方を満たすことであり、
    前記条件aは、前記物体の現在の速度が第1閾値以上であることであり、
    前記条件bは、前記物体の現在の速度が現在から所定時間前の前記物体の速度よりも第2閾値以上速いことであり、
    前記条件cは、前記物体の現在の位置が所定時間前の前記物体の位置から第3閾値以上離れていることである、
    情報処理装置。
  5. 車両の周辺の物体を検出する第1検出部と、
    前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部と、
    前記第1検出部および前記第2検出部の検出結果に基づいて前記物体が移動を開始した否かを判定する判定部と、を備え、
    前記判定部は、前記車両と前記物体とが停止状態である場合において、
    前記第1検出部の検出結果に基づいて前記車両の状態が第1条件を満たし、且つ、
    前記第2検出部の検出結果に基づいて前記車両の状態が前記第1条件を満たした場合に、前記物体が移動したと判定し、
    前記第1条件は、前記物体の現在の速度が第4閾値以上であることと、前記物体の状態が条件a、条件bおよび条件cのうち少なくとも2つ以上の条件を満たすこととのうち一方または双方を満たし、且つ、前記物体が前記車両から離れる方向に移動していることであり、
    前記条件aは、前記物体の現在の速度が第1閾値以上であることであり、
    前記条件bは、前記物体の現在の速度が現在から所定時間前の前記物体の速度よりも第2閾値以上速いことであり、
    前記条件cは、前記物体の現在の位置が所定時間前の前記物体の位置から第3閾値以上離れていることである、
    情報処理装置。
  6. 前記第1検出部および前記第2検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第3検出部と、
    前記第1検出部、前記第2検出部および前記第3検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第4検出部と、を更に備え、
    前記判定部は、
    前記第3検出部の検出結果に基づいて前記車両の状態が前記第1条件を満たさず、且つ、前記第4検出部の検出結果が前記第1条件を満たさない場合に、前記物体が移動していないことを確定する、
    請求項4または5に記載の情報処理装置。
  7. 車両の周辺の物体を検出する第1検出部と、
    前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部と、
    前記第1検出部および前記第2検出部の検出結果に基づいて前記物体が移動を開始した否かを判定する判定部と、を備え、
    前記判定部は、前記車両と前記物体とが停止状態である場合において、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定する情報処理装置であって、
    前記第1検出部および前記第2検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第3検出部と、
    前記第1検出部、前記第2検出部および前記第3検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第4検出部と、を更に備え、
    前記判定部は、
    前記車両と前記物体とが停止状態である場合において、前記第3検出部の検出結果が、前記物体が移動を開始していないことを示し、且つ前記第4検出部の検出結果が、前記物体が移動を開始していないことを示す場合に、前記物体が移動を開始していないと判定する、
    情報処理装置。
  8. 前記第1検出部と前記第2検出部のそれぞれは、
    前記車両の周辺の風景を撮像するカメラ、
    前記車両の周辺に電波を放射し、放射した前記電波が物体によって反射された電波に基づいて前記物体を検出するレーダ装置、または
    前記車両の周辺に光を照射し、照射した光が前記物体によって反射された光に基づいて前記物体を検出する光学装置のいずれかである、
    請求項1から7のうちいずれか1項に記載の情報処理装置。
  9. 前記第1検出部は、第1種別の検出部であり、
    前記第2検出部は、前記第1種別の機能構成とは異なる機能構成を有する検出部である、
    請求項1から8のうちいずれか1に記載の情報処理装置。
  10. 請求項1から9のうちいずれか1項に記載の情報処理装置と、
    前記情報処理装置の前記判定部の判定結果に基づいて、前記車両の挙動を制御する車両制御装置と、
    を備えた車両システム。
  11. コンピュータが、
    車両の周辺の物体を検出する第1検出部の検出結果と前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部の検出結果とを取得し、
    前記車両と前記物体とが停止状態である場合において、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定し、
    前記判定を開始する前において、
    前記第1検出部が異なるタイミングで検出した物体の同定がなされ、且つ
    前記第2検出部が異なるタイミングで検出した物体の同定がなされた場合に、
    前記判定を開始する、
    情報処理方法。
  12. コンピュータに、
    車両の周辺の物体を検出する第1検出部の検出結果と前記第1検出部と検出範囲の少なくとも一部が重なり、前記車両の周辺の物体を検出する第2検出部の検出結果とを取得させ、
    前記車両と前記物体とが停止状態である場合において、前記第1検出部の検出結果が、前記物体が移動を開始したことを示し、且つ前記第2検出部の検出結果が、前記物体が移動を開始したことを示す場合に、前記物体が移動を開始したと判定させ、
    前記判定を開始する前において、
    前記第1検出部が異なるタイミングで検出した物体の同定がなされ、且つ
    前記第2検出部が異なるタイミングで検出した物体の同定がなされた場合に、
    前記判定を開始させる、
    プログラム。
JP2019173242A 2019-09-24 2019-09-24 情報処理装置、車両システム、情報処理方法、およびプログラム Active JP7012693B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019173242A JP7012693B2 (ja) 2019-09-24 2019-09-24 情報処理装置、車両システム、情報処理方法、およびプログラム
CN202010991885.1A CN112550263A (zh) 2019-09-24 2020-09-18 信息处理装置、车辆系统、信息处理方法及存储介质
US17/024,834 US20210086787A1 (en) 2019-09-24 2020-09-18 Information processing apparatus, vehicle system, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173242A JP7012693B2 (ja) 2019-09-24 2019-09-24 情報処理装置、車両システム、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021051466A JP2021051466A (ja) 2021-04-01
JP7012693B2 true JP7012693B2 (ja) 2022-01-28

Family

ID=74880564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019173242A Active JP7012693B2 (ja) 2019-09-24 2019-09-24 情報処理装置、車両システム、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20210086787A1 (ja)
JP (1) JP7012693B2 (ja)
CN (1) CN112550263A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114882717A (zh) * 2022-03-16 2022-08-09 仓擎智能科技(上海)有限公司 一种基于车路协同的物体检测系统和方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011117895A (ja) 2009-12-07 2011-06-16 Toyota Motor Corp 物体検出装置、物体検出装置を備えた車両の安全システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003202377A (ja) * 2001-12-28 2003-07-18 Hitachi Ltd 車両搭載用レーダ装置
JP2005231491A (ja) * 2004-02-19 2005-09-02 Honda Motor Co Ltd 追従走行制御装置
JP4481039B2 (ja) * 2004-03-04 2010-06-16 本田技研工業株式会社 先行車発進報知装置
US9744915B2 (en) * 2012-02-27 2017-08-29 Nissan Motor Co., Ltd. Travel control device and travel control method
US9092986B2 (en) * 2013-02-04 2015-07-28 Magna Electronics Inc. Vehicular vision system
CN203211328U (zh) * 2013-03-26 2013-09-25 东莞市诺丽电子科技有限公司 超声波轨道交通检测装置
EP3323688B1 (en) * 2015-07-14 2022-02-23 Nissan Motor Co., Ltd. Start control device and start control method
JP6493422B2 (ja) * 2016-02-10 2019-04-03 株式会社デンソー 走行支援装置
JP6777518B2 (ja) * 2016-11-29 2020-10-28 トヨタ自動車株式会社 車両制御システム
JP6914065B2 (ja) * 2017-03-17 2021-08-04 シャープ株式会社 障害物検出装置、走行装置、障害物検出システムおよび障害物検出方法
JP6638695B2 (ja) * 2017-05-18 2020-01-29 トヨタ自動車株式会社 自動運転システム
WO2019089591A1 (en) * 2017-10-30 2019-05-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on human activity
KR102506871B1 (ko) * 2018-02-19 2023-03-08 현대자동차주식회사 자율 주행 제어 장치 및 그의 전방차량 출발 알림 방법
KR102563708B1 (ko) * 2018-05-14 2023-08-09 주식회사 에이치엘클레무브 선행 차량 출발 알림 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011117895A (ja) 2009-12-07 2011-06-16 Toyota Motor Corp 物体検出装置、物体検出装置を備えた車両の安全システム

Also Published As

Publication number Publication date
CN112550263A (zh) 2021-03-26
JP2021051466A (ja) 2021-04-01
US20210086787A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
JP6931370B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP6972294B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP7043279B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP7071250B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7000202B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP2021024423A (ja) 車両制御装置、車両制御方法、およびプログラム
CN112462751B (zh) 车辆控制装置、车辆控制方法及存储介质
JP2020187625A (ja) 車両制御装置、車両制御装方法、およびプログラム
CN112462750A (zh) 车辆控制装置、车辆控制方法及存储介质
JP2021160426A (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP2021041757A (ja) 車両制御装置、車両制御方法、およびプログラム
JP6966626B2 (ja) 車両制御装置、車両制御方法、及びプログラム
CN114261405A (zh) 车辆控制装置、车辆控制方法以及存储介质
JP7012693B2 (ja) 情報処理装置、車両システム、情報処理方法、およびプログラム
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
CN115140086A (zh) 车辆控制装置、车辆控制方法及存储介质
JP2021160399A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021149201A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021009624A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7096215B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7225185B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7050098B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7431081B2 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2022144976A1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022059431A (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220118

R150 Certificate of patent or registration of utility model

Ref document number: 7012693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150