JP2019172052A - Vehicle control device and vehicle control system - Google Patents

Vehicle control device and vehicle control system Download PDF

Info

Publication number
JP2019172052A
JP2019172052A JP2018062256A JP2018062256A JP2019172052A JP 2019172052 A JP2019172052 A JP 2019172052A JP 2018062256 A JP2018062256 A JP 2018062256A JP 2018062256 A JP2018062256 A JP 2018062256A JP 2019172052 A JP2019172052 A JP 2019172052A
Authority
JP
Japan
Prior art keywords
instructor
vehicle
vehicle control
instruction
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018062256A
Other languages
Japanese (ja)
Other versions
JP6978973B2 (en
Inventor
春樹 的野
Haruki Matono
春樹 的野
永崎 健
Takeshi Nagasaki
健 永崎
遠藤 健
Takeshi Endo
健 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2018062256A priority Critical patent/JP6978973B2/en
Priority to CN201980022095.8A priority patent/CN111918807A/en
Priority to PCT/JP2019/009876 priority patent/WO2019188234A1/en
Publication of JP2019172052A publication Critical patent/JP2019172052A/en
Application granted granted Critical
Publication of JP6978973B2 publication Critical patent/JP6978973B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Abstract

To provide a vehicle control device etc., capable of controlling a vehicle as instructed by an instructing person who is outside the vehicle and does not have a terminal device.SOLUTION: An ECU (vehicle control device) comprises an instructing person detection part 1011, an instructing action detection part 1014, and a first vehicle control part 1015. The instructing person detection part 1011 detects an instructing person from an image picked up by a camera 200. The instructing action detection part 1014 detects an instructing action indicative of an instruction by the instructing person from the image picked up by the camera 200. The first vehicle control part 1015 controls, when the instructing action detection part 1014 detects the instructing action, a vehicle 400 according to the instruction that the instructing action indicates.SELECTED DRAWING: Figure 2

Description

本発明は、車両制御装置及び車両制御システムに関する。   The present invention relates to a vehicle control device and a vehicle control system.

車両の周囲の人に与える不安感を低減することができる車両制御システムが知られている(例えば、特許文献1参照)。特許文献1には、「車両制御システムは、車両の周辺状態を検出する検出部と、検出部により検出された車両の周辺状態に基づいて、車両の速度制御と操舵制御とのうち少なくとも一方を自動的に行う自動運転を実行する自動運転制御部と、検出部により検出された車両の周辺状態に基づいて、車両の周辺に存在する移動物体を認識する認識部と、認識部により認識された移動物体の方向を除く方向に、端末装置に注意喚起を行わせるための情報を発信する発信部と、を備える。」と記載されている。   A vehicle control system that can reduce anxiety given to people around the vehicle is known (see, for example, Patent Document 1). Patent Document 1 states that “a vehicle control system performs at least one of vehicle speed control and steering control based on a detection unit that detects a vehicle peripheral state and a vehicle peripheral state detected by the detection unit. An automatic driving control unit that performs automatic driving automatically, a recognition unit that recognizes a moving object that exists in the vicinity of the vehicle based on the peripheral state of the vehicle detected by the detection unit, and a recognition unit that is recognized A transmitting unit that transmits information for causing the terminal device to call attention in a direction other than the direction of the moving object. "

特開2017-207964号公報JP 2017-207964

特許文献1に開示されるような技術では、注意喚起を行わせるための情報を受信するため、車両の周囲の人は端末装置を持つ必要がある。また、そのような技術では、車両の周囲の人は車両を制御することはできない。   In the technology disclosed in Patent Document 1, in order to receive information for alerting, people around the vehicle need to have a terminal device. Also, with such technology, people around the vehicle cannot control the vehicle.

本発明の目的は、車両の外部にいる端末装置を持たない指示者の指示に応じて車両を制御することができる車両制御装置等を提供することにある。   The objective of this invention is providing the vehicle control apparatus etc. which can control a vehicle according to the instruction | indication of the instructor who does not have the terminal device outside the vehicle.

上記目的を達成するために、本発明は、指示者を検出する指示者検出部と、前記指示者の指示を示す指示動作を検出する指示動作検出部と、前記指示動作が検出された場合、前記指示動作が示す前記指示に応じて前記車両を制御する第1の車両制御部と、を備える。   In order to achieve the above object, the present invention provides an instructor detection unit for detecting an instructor, an instruction operation detection unit for detecting an instruction operation indicating an instruction of the instructor, and when the instruction operation is detected, A first vehicle control unit that controls the vehicle according to the instruction indicated by the instruction operation.

本発明によれば、車両の外部にいる端末装置を持たない指示者の指示に応じて車両を制御することができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   ADVANTAGE OF THE INVENTION According to this invention, a vehicle can be controlled according to the instruction | indication of the instructor who does not have the terminal device outside the vehicle. Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の第1の実施形態による車両制御装置としてのECUを含む車両制御システムの構成図である。1 is a configuration diagram of a vehicle control system including an ECU as a vehicle control device according to a first embodiment of the present invention. 本発明の第1の実施形態によるECUに用いられるCPUの機能を示すブロック図である。It is a block diagram which shows the function of CPU used for ECU by the 1st Embodiment of this invention. 本発明の第1の実施形態によるECUに用いられるCPUの動作を示すフローチャートである。It is a flowchart which shows operation | movement of CPU used for ECU by the 1st Embodiment of this invention. 変形例1を説明するための図であり、カメラの画角が広い場合の焦点距離を示す。It is a figure for demonstrating the modification 1, and shows the focal distance when a field angle of a camera is wide. 変形例1を説明するための図であり、カメラの画角が狭い場合の焦点距離を示す。It is a figure for demonstrating the modification 1, and shows the focal distance when a field angle of a camera is narrow. 第1の実施形態の変形例2の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the modification 2 of 1st Embodiment. 本発明の第2の実施形態の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the 2nd Embodiment of this invention. 本発明の第3の実施形態の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the 3rd Embodiment of this invention. 第1の指示者から第2の指示者への指示の引継ぎを示す図である。It is a figure which shows taking over of the instruction | indication from a 1st instructor to a 2nd instructor. 本発明の第3の実施形態の変形例を説明するための図である。It is a figure for demonstrating the modification of the 3rd Embodiment of this invention. 指示者が保持する物に応じて権限を変更する例を説明するための図である。It is a figure for demonstrating the example which changes authority according to the thing which an instructor hold | maintains.

以下、図面を用いて、本発明の第1〜第3の実施形態による車両制御装置を含む車両制御システムの構成及び動作を説明する。なお、各図において、同一符号は同一部分を示す。   Hereinafter, the configuration and operation of a vehicle control system including a vehicle control device according to first to third embodiments of the present invention will be described with reference to the drawings. In each figure, the same numerals indicate the same parts.

(第1の実施形態)
初めに、図1を用いて、車両制御システムの構成を説明する。図1は、本発明の第1の実施形態による車両制御装置としてのECU100(Electronic Control Unit)を含む車両制御システム1の構成図である。
(First embodiment)
First, the configuration of the vehicle control system will be described with reference to FIG. FIG. 1 is a configuration diagram of a vehicle control system 1 including an ECU 100 (Electronic Control Unit) as a vehicle control device according to a first embodiment of the present invention.

(システム構成)
ECU100は、プロセッサとしてのCPU101(Central Processing Unit)、記憶装置としてのメモリ102、入出力回路としてのI/F103などから構成される。ECU100は、車両に搭載されている。
(System configuration)
The ECU 100 includes a CPU 101 (Central Processing Unit) as a processor, a memory 102 as a storage device, an I / F 103 as an input / output circuit, and the like. ECU 100 is mounted on the vehicle.

カメラ200は、画像を撮像し、撮像された画像を一時的にメモリに記憶する。カメラ200は、I/F103に接続され、CPU101によって制御される。カメラ200は、例えば、ステレオカメラである。   The camera 200 captures an image and temporarily stores the captured image in a memory. The camera 200 is connected to the I / F 103 and is controlled by the CPU 101. The camera 200 is a stereo camera, for example.

光源、音源、又はディスプレイ300は、車両の周辺の指示者(人間)へ車両を制御する意思があるかを確認するための信号(第1の信号)を送出する。光源、音源、又はディスプレイ300は、I/F103に接続され、CPU101によって制御される。光源は、例えば、車両のライトであり、音源は、例えば、警笛であり、ディスプレイは、例えば、バス等の前面に設けられる電光掲示板である。光源、音源、又はディスプレイ300は、I/F103に接続され、CPU101によって制御される。   The light source, the sound source, or the display 300 sends a signal (first signal) for confirming whether there is an intention to control the vehicle to an instructor (human) around the vehicle. A light source, a sound source, or a display 300 is connected to the I / F 103 and controlled by the CPU 101. The light source is, for example, a vehicle light, the sound source is, for example, a horn, and the display is, for example, an electric bulletin board provided on the front surface of a bus or the like. A light source, a sound source, or a display 300 is connected to the I / F 103 and controlled by the CPU 101.

車両400は、車体を駆動する駆動機構、車体を制動する制動機構、車体を操舵する操舵機構などから構成される。   The vehicle 400 includes a drive mechanism that drives the vehicle body, a braking mechanism that brakes the vehicle body, a steering mechanism that steers the vehicle body, and the like.

次に、図2を用いて、CPU101の機能を説明する。図2は、本発明の第1の実施形態によるECU100に用いられるCPU101の機能を示すブロック図である。   Next, the function of the CPU 101 will be described with reference to FIG. FIG. 2 is a block diagram showing functions of the CPU 101 used in the ECU 100 according to the first embodiment of the present invention.

(機能)
CPU101は、メモリ102に予め記憶された所定のプログラムを実行することにより、指示者検出部1011、信号送出部1012、応答動作検出部1013、指示動作検出部1014、第1の車両制御部1015、第2の車両制御部1016として機能する。なお、これらの機能はFPGA(Field-Programmable Gate Array)等の回路で実現されていてもよい。
(function)
The CPU 101 executes a predetermined program stored in advance in the memory 102 to thereby perform an instructor detection unit 1011, a signal transmission unit 1012, a response operation detection unit 1013, an instruction operation detection unit 1014, a first vehicle control unit 1015, It functions as the second vehicle control unit 1016. Note that these functions may be realized by a circuit such as an FPGA (Field-Programmable Gate Array).

指示者検出部1011は、カメラ200で撮像された画像から指示者(人間)を検出する。   The instructor detection unit 1011 detects an instructor (human) from the image captured by the camera 200.

信号送出部1012は、指示者検出部1011によって指示者が検出された場合、光源、音源又はディスプレイのうち少なくとも1つを制御することで指示者に車両を制御する意思があるかを確認するための信号(第1の信号)を送出する。例えば、信号送出部1012は、所定の期間、車両のライトを点灯したり、警笛を鳴らしたり、電光掲示板に「車両を制御しますか?」というメッセージを表示したりする。   When the instructor is detected by the instructor detection unit 1011, the signal transmission unit 1012 confirms whether the instructor has an intention to control the vehicle by controlling at least one of the light source, the sound source, and the display. Signal (first signal) is sent out. For example, the signal transmission unit 1012 lights a vehicle light, sounds a horn, or displays a message “Do you want to control the vehicle?” On an electric bulletin board for a predetermined period.

指示者は、車両を制御したい場合、所定の動作を行う。所定の動作(応答動作)は、例えば、両腕を上げる動作、旗を上げる動作などである。   The instructor performs a predetermined operation when he wants to control the vehicle. The predetermined operation (response operation) is, for example, an operation of raising both arms, an operation of raising a flag, or the like.

応答動作検出部1013は、カメラ200で撮像された画像から指示者の応答を示す応答動作を検出する。応答動作は、次に、指示者の指示を示す指示動作が続くことを予告する。   The response operation detection unit 1013 detects a response operation indicating the response of the instructor from the image captured by the camera 200. Next, the response operation notifies that the instruction operation indicating the instruction from the instructor will continue.

指示動作検出部1014は、カメラ200で撮像された画像から指示動作を検出する。例えば、指示者は、車両を停止させたい場合、両腕を水平し、車両を駐車させたい場合、駐車位置を指差した後、片腕を斜め下にする。   The instruction operation detection unit 1014 detects an instruction operation from an image captured by the camera 200. For example, if the instructor wants to stop the vehicle, both arms are leveled, and if the vehicle is to be parked, after pointing the parking position, the instructor turns one arm downward.

第1の車両制御部1015は、指示動作検出部1014によって指示動作が検出された場合、指示動作が示す指示に応じて車両400を制御する。   The first vehicle control unit 1015 controls the vehicle 400 according to the instruction indicated by the instruction operation when the instruction operation detection unit 1014 detects the instruction operation.

第2の車両制御部1016は、応答動作検出部1013によって応答動作が検出された場合、車両400を指示者に近づける制御を行う。   The second vehicle control unit 1016 performs control to bring the vehicle 400 closer to the instructor when the response operation is detected by the response operation detection unit 1013.

次に、図3を用いて、CPU101の動作を説明する。図3は、本発明の第1の実施形態によるECU100に用いられるCPU101の動作を示すフローチャートである。   Next, the operation of the CPU 101 will be described with reference to FIG. FIG. 3 is a flowchart showing the operation of the CPU 101 used in the ECU 100 according to the first embodiment of the present invention.

(動作)
CPU101(指示者検出部1011)は、カメラ200で撮像された画像から指示者(人間)を検出したか否かを判定する(S15)。例えば、CPU101は、画像を解析して、予めメモリ102に記憶された人間の形状に類似し、かつ、人間の行動と類似する動きを行う物体を人間であると判定(認識)する。
(Operation)
The CPU 101 (instructor detection unit 1011) determines whether or not an instructor (human) is detected from the image captured by the camera 200 (S15). For example, the CPU 101 analyzes the image and determines (recognizes) an object that is similar to a human shape stored in advance in the memory 102 and that moves similar to a human action as a human.

CPU101(信号送出部1012)は、指示者(人間)が検出された場合(S15:YES)、例えば、所定の期間、車両のライトを点灯させることで、指示者に車両を制御する意思があるかを確認するための信号(第1の信号)を送出する(S20)。これに対し、指示者は、車両を制御する意思を示すため、例えば、例えば、両腕を上げる。なお、指示者(人間)が検出されない場合(S15:NO)、CPU101は、S15の処理を繰り返す。   When the instructor (human) is detected (S15: YES), the CPU 101 (signal transmission unit 1012) has an intention to control the vehicle by, for example, lighting the vehicle light for a predetermined period. A signal (first signal) for confirming whether or not is transmitted (S20). On the other hand, in order to show the intention to control the vehicle, for example, the instructor raises both arms, for example. If no instructor (human) is detected (S15: NO), the CPU 101 repeats the process of S15.

CPU101(応答動作検出部1013)は、カメラ200で撮像された画像から指示者の応答を示す応答動作(両腕を上げる)を検出したか否かを判定する(S25)。なお、応答動作を定義する情報は、例えば、予めメモリ102に記憶される。CPU101は、例えば、カメラ200で撮像された画像を解析(行動解析)して得られた指示者の動作を示す情報と、メモリ102に記憶された応答動作を定義する情報とを比較して、それらが類似する場合に、応答動作を検出(認識)したと判定する。   The CPU 101 (response operation detection unit 1013) determines whether or not a response operation (raising both arms) indicating the response of the instructor is detected from the image captured by the camera 200 (S25). Note that the information defining the response action is stored in advance in the memory 102, for example. For example, the CPU 101 compares the information indicating the action of the instructor obtained by analyzing (behavior analysis) the image captured by the camera 200 with the information defining the response action stored in the memory 102. If they are similar, it is determined that a response operation has been detected (recognized).

CPU101(第2の車両制御部1016)は、応答動作が検出された場合(S25:YES)、車両400を指示者に近づける制御を行う(S30)。例えば、CPU101は、指示者から所定の距離の位置まで車両400を前進させて停止させる。これにより、カメラ200で撮像される画像のうち指示者の像の占める割合が大きくなり、画像解析において応答動作に続く指示動作が認識されやすくなる。   When a response operation is detected (S25: YES), CPU 101 (second vehicle control unit 1016) performs control to bring vehicle 400 closer to the instructor (S30). For example, the CPU 101 advances the vehicle 400 to a position at a predetermined distance from the instructor and stops it. As a result, the proportion of the image of the instructor in the image captured by the camera 200 increases, and the instruction operation following the response operation is easily recognized in the image analysis.

なお、応答動作が検出されない場合(S25:NO)、CPU101は、所定時間、S25の処理を繰り返した後(S26:YES)、通常の自動運転に復帰する(S27)。通常の自動運転では、人間を避けて車両400を前進させる制御が行われる。   If no response operation is detected (S25: NO), the CPU 101 repeats the process of S25 for a predetermined time (S26: YES), and then returns to normal automatic operation (S27). In normal automatic driving, control for advancing the vehicle 400 while avoiding humans is performed.

続いて、指示者は、例えば、車両400を停止させる指示を示す指示動作として、両腕を水平にする。   Subsequently, for example, the instructor leveles both arms as an instruction operation indicating an instruction to stop the vehicle 400.

CPU101(指示動作検出部1014)は、カメラ200で撮像された画像から指示動作を検出したか否かを判定する(S35)。なお、指示動作を定義する情報は、例えば、予めメモリ102に記憶される。CPU101は、例えば、カメラ200で撮像された画像を解析(行動解析)して得られた指示者の動作を示す情報と、メモリ102に記憶された指示動作を定義する情報とを比較して、それらが類似する場合に、指示動作を検出(認識)したと判定する。   The CPU 101 (instruction action detection unit 1014) determines whether or not an instruction action has been detected from an image captured by the camera 200 (S35). Note that the information defining the instruction operation is stored in the memory 102 in advance, for example. For example, the CPU 101 compares the information indicating the operation of the instructor obtained by analyzing (behavior analysis) the image captured by the camera 200 with the information defining the instruction operation stored in the memory 102. When they are similar, it is determined that the instruction operation is detected (recognized).

CPU101(第1の車両制御部1015)は、指示動作が検出された場合(S35:YES)、指示動作が示す指示に応じて車両400を制御する(S40)。具体的には、両腕を水平にする動作(指示動作)が示す指示に従って、CPU101は、車両400を停止させる制御を行う。なお、指示動作が検出されない場合(S35:NO)、CPU101は、S35の処理を繰り返す。   CPU101 (1st vehicle control part 1015) controls the vehicle 400 according to the instruction | indication which an instruction | indication action shows, when instruction | indication operation | movement is detected (S35: YES) (S40). Specifically, the CPU 101 performs control to stop the vehicle 400 in accordance with an instruction indicated by an operation (instruction operation) for leveling both arms. If no instruction operation is detected (S35: NO), the CPU 101 repeats the process of S35.

以上説明したように、本実施形態によれば、車両の外部にいる端末装置を持たない指示者の指示に応じて車両を制御することができる。   As described above, according to the present embodiment, the vehicle can be controlled in accordance with an instruction from an instructor who does not have a terminal device outside the vehicle.

(変形例1)
次に、図4A、4Bを用いて、本発明の第1の実施形態の変形例1を説明する。図4Aは、カメラ200の画角が広い場合の焦点距離を示す図であり、図4Bは、カメラ200の画角が狭い場合の焦点距離を示す図である。
(Modification 1)
Next, Modification 1 of the first embodiment of the present invention will be described with reference to FIGS. 4A and 4B. 4A is a diagram illustrating the focal length when the angle of view of the camera 200 is wide, and FIG. 4B is a diagram illustrating the focal length when the angle of view of the camera 200 is narrow.

変形例1では、CPU101(第2の車両制御部1016)は、応答動作が検出された場合、カメラ200の画角に応じて車両400を指示者に近づける制御を行う。   In the first modification, the CPU 101 (second vehicle control unit 1016) performs control to bring the vehicle 400 closer to the instructor according to the angle of view of the camera 200 when a response operation is detected.

例えば、図4Aに示すようにカメラ200の画角θ1が広い場合、CPU101は、車両400を指示者に近づけて、カメラ200で検出された指示者までの距離Rが画角θ1に対応する焦点距離d1となったときに、車両400を停止させる。   For example, as shown in FIG. 4A, when the angle of view θ1 of the camera 200 is wide, the CPU 101 brings the vehicle 400 closer to the instructor, and the distance R to the instructor detected by the camera 200 corresponds to the angle of view θ1. When the distance d1 is reached, the vehicle 400 is stopped.

一方、図4Bに示すようにカメラ200の画角θ2が狭い場合、CPU101は、車両400を指示者に近づけて、カメラ200で検出された距離Rが画角θ2に対応する焦点距離d2となったときに、車両400を停止させる。ここで、θ2<θ1、d1<d2の関係が成立する。   On the other hand, when the angle of view θ2 of the camera 200 is narrow as shown in FIG. 4B, the CPU 101 brings the vehicle 400 close to the instructor, and the distance R detected by the camera 200 becomes the focal length d2 corresponding to the angle of view θ2. The vehicle 400 is stopped. Here, the relationship of θ2 <θ1 and d1 <d2 is established.

これにより、カメラ200の焦点が指示者に合うため、指示者の指示動作を検出しやすくなる。   Thereby, since the focus of the camera 200 is focused on the instructor, it is easy to detect the instruction operation of the instructor.

(変形例2)
次に、図5を用いて、本発明の第1の実施形態の変形例2を説明する。図5は、第1の実施形態の変形例2の動作を示すフローチャートである。図5では、図3のS20からS30までの処理が省略されている。
(Modification 2)
Next, Modification 2 of the first embodiment of the present invention will be described with reference to FIG. FIG. 5 is a flowchart showing the operation of the second modification of the first embodiment. In FIG. 5, the processing from S20 to S30 in FIG. 3 is omitted.

緊急時には、指示者から応答動作を得られないことが想定される。そこで、本変形例では、指示者からの応答動作を待たずに、指示者からの指示動作に応じて車両を制御する。例えば、指示者からの指示動作が緊急事態に伴う指示を示す場合、CPU101(第1の車両制御部1015)は、車両400を安全な場所に停車させる制御を行う。これにより、車両を迅速に制御することができる。   In an emergency, it is assumed that a response action cannot be obtained from the instructor. Therefore, in this modification, the vehicle is controlled according to the instruction operation from the instructor without waiting for the response operation from the instructor. For example, when the instruction operation from the instructor indicates an instruction accompanying an emergency, the CPU 101 (first vehicle control unit 1015) performs control to stop the vehicle 400 in a safe place. As a result, the vehicle can be quickly controlled.

なお、CPU101(指示動作検出部1014)は、カメラ200で撮像された画像から指示動作を予測してもよい。ここで、CPU101(第2の車両制御部1016)は、指示動作が予測された場合、車両400を指示者に近づける制御を行う。これにより、指示者からの応答動作を待たずに、車両400を指示者に近づけることができる。   Note that the CPU 101 (instruction operation detection unit 1014) may predict an instruction operation from an image captured by the camera 200. Here, the CPU 101 (second vehicle control unit 1016) performs control to bring the vehicle 400 closer to the instructor when the instruction operation is predicted. Thereby, the vehicle 400 can be brought close to the instructor without waiting for a response operation from the instructor.

(第2の実施形態)
次に、図6を用いて、第2の実施形態を説明する。図6は、本発明の第2の実施形態の動作を示すフローチャートである。図6では、図3に示したフローチャートに、S28の処理が追加されている。なお、本実施形態のシステム構成は第1の実施形態と同じである。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the second exemplary embodiment of the present invention. In FIG. 6, the process of S28 is added to the flowchart shown in FIG. Note that the system configuration of this embodiment is the same as that of the first embodiment.

S28において、CPU101(信号送出部1012)は、応答動作が検出された場合(S25:YES)、第1の信号と異なる第2の信号を送出する。例えば、CPU101は、所定の期間、車両のライトを点滅させることで、指示者の応答動作を検出したことを通知するための信号(第2の信号)を送出する(S20)。なお、CPU101は、所定の期間、警笛を鳴らしたり、ディスプレイに「OK」と表示したりしてもよい。   In S28, when a response operation is detected (S25: YES), the CPU 101 (signal transmission unit 1012) transmits a second signal different from the first signal. For example, the CPU 101 sends a signal (second signal) for notifying that the response operation of the instructor has been detected by blinking the vehicle light for a predetermined period (S20). The CPU 101 may sound a horn for a predetermined period or display “OK” on the display.

本実施形態によれば、指示者の応答動作を検出したことを指示者へ通知することができる。その結果、車両の周辺にいる指示者に安心感を与えることができる。   According to the present embodiment, it is possible to notify the instructor that the response operation of the instructor has been detected. As a result, it is possible to give a sense of security to the instructor around the vehicle.

(第3の実施形態)
次に、図7、8を用いて、第3の実施形態を説明する。図7は、本発明の第3の実施形態の動作を示すフローチャートである。図7では、図3に示したフローチャートに、S45とS50の処理が追加されている。なお、本実施形態のシステム構成は第1の実施形態と同じである。
(Third embodiment)
Next, a third embodiment will be described with reference to FIGS. FIG. 7 is a flowchart showing the operation of the third exemplary embodiment of the present invention. In FIG. 7, the processes of S45 and S50 are added to the flowchart shown in FIG. Note that the system configuration of this embodiment is the same as that of the first embodiment.

本実施形態では、指示者は少なくとも2人いる。以下では、理解を容易にするため、駐車場で2人の指示者(誘導員)が自動運転中の車両400に指示する例を説明する。   In this embodiment, there are at least two instructors. Hereinafter, in order to facilitate understanding, an example in which two instructors (guides) instruct a vehicle 400 during automatic driving in a parking lot will be described.

CPU101は、第1の実施形態と同様に、S15からS35までの処理を実行し、第1の指示者の指示動作を検出する(S35:YES)。例えば、第1の指示者の指示動作は、右方向に前進する指示を示し、次の指示者を指し示す動作が含まれている。   As in the first embodiment, the CPU 101 executes the processing from S15 to S35 and detects the instruction operation of the first instructor (S35: YES). For example, the instruction operation of the first instructor indicates an instruction to move forward in the right direction, and includes an operation of pointing to the next instructor.

CPU101(第1の車両制御部1015)は、第1の指示者の指示動作が検出された場合(S35:YES)、第1の指示者の指示動作が示す指示に応じて車両400を制御する(S40)。具体的には、CPU101は、第1の指示者の指示動作が示す指示に従って、車両400を右方向に前進させる制御を行う。   CPU101 (1st vehicle control part 1015) controls vehicle 400 according to the instruction | indication which a 1st instructor's instruction | indication operation | movement shows, when the instruction | indication operation | movement of a 1st instructor is detected (S35: YES). (S40). Specifically, the CPU 101 performs control to advance the vehicle 400 in the right direction in accordance with an instruction indicated by the instruction operation of the first instructor.

CPU101(指示動作検出部1014)は、カメラ200で撮像された画像から第1の指示者が指差した方向にいる第2の指示者の指示動作を検出したか否かを判定する(S45)。   The CPU 101 (instruction operation detection unit 1014) determines whether or not the instruction operation of the second instructor in the direction pointed by the first instructor is detected from the image captured by the camera 200 (S45). .

すなわち、CPU101(指示動作検出部1014)は、図8に示すように、第1の指示者の指示動作に第2の指示者を指し示す動作が含まれる場合、第1の指示者の指示動作に続いて第2の指示者の指示動作を検出する。ここで、カメラ200が望遠ズーム機能を有している場合、CPU101は、カメラ200を第2の指示者にズームインさせてもよい。   That is, as shown in FIG. 8, the CPU 101 (instruction action detection unit 1014) determines that the instruction operation of the first instructor includes the action of pointing the second instructor in the instruction action of the first instructor. Subsequently, the instruction operation of the second instructor is detected. Here, when the camera 200 has a telephoto zoom function, the CPU 101 may cause the second instructor to zoom in on the camera 200.

CPU101(第1の車両制御部1015)は、第2の指示者の指示動作が検出された場合、第2の指示動作が示す指示に応じて車両400を制御する。具体的には、CPU101は、第2の指示者の指示動作が示す指示に従って、車両400を駐車させる。   CPU101 (1st vehicle control part 1015) controls the vehicle 400 according to the instruction | indication which 2nd instruction | indication operation | movement shows, when the instruction | indication operation | movement of a 2nd instructor is detected. Specifically, CPU 101 parks vehicle 400 in accordance with the instruction indicated by the instruction operation of the second instructor.

すなわち、CPU101(第1の車両制御部1015)は、第1の指示者の指示動作が示す指示に応じて車両400を制御した後、第2の指示者の指示動作が示す指示に応じて車両400を制御する。   That is, the CPU 101 (first vehicle control unit 1015) controls the vehicle 400 according to the instruction indicated by the instruction operation of the first instructor, and then performs the vehicle according to the instruction indicated by the instruction operation of the second instructor. 400 is controlled.

本実施形態によれば、第1の指示者から第2の指示者へ指示を引き継ぐことができる。   According to this embodiment, an instruction can be taken over from the first instructor to the second instructor.

(変形例)
次に、図9を用いて、本発明の第3の実施形態の変形例を説明する。図9は、カメラ200から第1の指示者までの距離R1とカメラ200から第2の指示者までの距離R2を示す図である。
(Modification)
Next, a modification of the third embodiment of the present invention will be described with reference to FIG. FIG. 9 is a diagram illustrating a distance R1 from the camera 200 to the first instructor and a distance R2 from the camera 200 to the second instructor.

第3の実施形態では、車両400を第2の指示者に近づける制御は行われていないが、CPU101(第2の車両制御部1016)は、カメラ200からの距離が近い順に、車両400をそれぞれの指示者に近づける制御を行ってもよい。例えば、図9の例では、距離R1は距離R1より小さいため、CPU101(第2の車両制御部1016)は、車両400を第1の指示者に近づけ、次に車両400を第2の指示者に近づける制御を行う。   In the third embodiment, control for bringing the vehicle 400 closer to the second instructor is not performed, but the CPU 101 (second vehicle control unit 1016) sets the vehicles 400 in order of increasing distance from the camera 200, respectively. Control may be performed to approach the instructor. For example, in the example of FIG. 9, since the distance R1 is smaller than the distance R1, the CPU 101 (second vehicle control unit 1016) brings the vehicle 400 close to the first instructor, and then moves the vehicle 400 to the second instructor. Control to bring it closer to.

これにより、2人以上の指示者に優先度を付けることができる。   Thereby, priority can be given to two or more instructors.

なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上述した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to above-described embodiment, Various modifications are included. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described. Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

例えば、図6に示される第2の実施形態のS28の処理(第2の信号を送信)を、図7に示される第3の実施形態のフローチャートのS25の処理とS30の処理の間に追加してもよい。これにより、指示者の応答動作を検出したことを指示者へ通知することができる。なお、S28の処理と併せて、CPU101は、スピーカに「接近します」という音声を出力させたり、ディスプレイにその旨を表示させたりしてもよい。これにより、車両400が指示者に近づくことを予告し、指示者に安心感を与えることができる。   For example, the process of S28 (sending the second signal) of the second embodiment shown in FIG. 6 is added between the process of S25 and the process of S30 in the flowchart of the third embodiment shown in FIG. May be. Thereby, it is possible to notify the instructor that the response operation of the instructor has been detected. In addition to the processing of S28, the CPU 101 may output a sound “approaching” to the speaker or display that effect on the display. Accordingly, it is possible to give a notice to the instructor that the vehicle 400 is approaching the instructor and to give the instructor a sense of security.

また、図6に示される第2の実施形態のS35の処理とS40の処理の間に、信号送出部1012が第3の信号を送信する処理を追加してもよい。これにより、指示者の指示動作を検出したことを指示者へ通知することができる。なお、第1の信号(第1の実施形態)、第2の信号(第2の実施形態)、上記の第3の信号は、互いに異なるが、同じ信号としてもよい。これにより、制御を単純化することができるため、設計/製造コストを低減することができる。   In addition, a process in which the signal transmission unit 1012 transmits the third signal may be added between the process of S35 and the process of S40 of the second embodiment illustrated in FIG. Thereby, it is possible to notify the instructor that the instruction operation of the instructor has been detected. Note that the first signal (first embodiment), the second signal (second embodiment), and the third signal are different from each other, but may be the same signal. Thereby, since control can be simplified, design / manufacturing cost can be reduced.

第1〜第3の実施形態では、図3、6、7に示すS30の処理において、CPU101は、車両400を指示者に近づける制御を行うが、カメラ200が望遠ズーム機能を有している場合、CPU101は、S30の処理に代えてカメラ200を第1の指示者にズームインさせてもよい。これにより、車両400が指示者に近づかなくても、指示動作を容易に検出することができる。   In the first to third embodiments, in the process of S30 shown in FIGS. 3, 6, and 7, the CPU 101 performs control to bring the vehicle 400 closer to the instructor, but the camera 200 has a telephoto zoom function. The CPU 101 may cause the first instructor to zoom in on the camera 200 instead of the process of S30. Thereby, even if the vehicle 400 does not approach the instructor, the instruction operation can be easily detected.

第1〜第3の実施形態では、図3、6、7に示すS20の処理において、例えば、第1の信号として、車両400のライトを点灯するが、車両400が使用される国の交通法規が認める場合には、ハザードを点灯(点滅)してもよい。   In the first to third embodiments, in the process of S20 shown in FIGS. 3, 6, and 7, for example, the light of the vehicle 400 is turned on as the first signal, but the traffic regulations of the country where the vehicle 400 is used. If this is recognized, the hazard may be turned on (flashing).

図4A、4Bに示す第1の実施形態の変形例1では、カメラ200の画角に応じて車両400を指示者に近づける制御を行うことでカメラ200の焦点を指示者に合わせるが、CPU101(指示動作検出部1014)は、カメラ200で撮像された画像のうち解像度の最も高い画像(領域)から指示動作を検出してもよい。これにより、指示動作を容易に検出することができる。   In Modification 1 of the first embodiment shown in FIGS. 4A and 4B, the camera 200 is focused on the instructor by controlling the vehicle 400 close to the instructor according to the angle of view of the camera 200. The instruction operation detection unit 1014) may detect an instruction operation from an image (region) having the highest resolution among images captured by the camera 200. Thereby, the instruction operation can be easily detected.

第1〜第3の実施形態では、指示者は人間であるが、指示者はロボットであってもよい。また、車両400に搭載されたマイク等の音センサが、「止まれ」等の所定の音声を検出した場合、CPU101(第1の車両制御部1015)は、車両400を緊急停止させる制御を行ってもよい。これにより、安全性が向上する。さらに、指示者の後ろに所定のマーカ(例えば、矩形枠)が描かれた看板等を配置し、CPU101(指示者検出部1011)は、マーカが検出される画像の領域(矩形枠内)から指示者を検出してもよい。これにより、指示者の検出が容易となる。なお、本実施例における指示者とは、必ずしも人間やロボットに限定するものではなく、人工知能、案内標識(電光、アナログ方式、デジタル方式などあらゆる公知の構成)を含んでもよい。   In the first to third embodiments, the instructor is a human, but the instructor may be a robot. In addition, when a sound sensor such as a microphone mounted on the vehicle 400 detects a predetermined sound such as “stop”, the CPU 101 (first vehicle control unit 1015) performs control for emergency stopping the vehicle 400. Also good. Thereby, safety is improved. Further, a signboard or the like on which a predetermined marker (for example, a rectangular frame) is drawn is placed behind the instructor, and the CPU 101 (instructor detecting unit 1011) starts from an image area (inside the rectangular frame) where the marker is detected. An instructor may be detected. This facilitates detection of the instructor. The instructor in the present embodiment is not necessarily limited to a human or a robot, and may include artificial intelligence and guidance signs (all known configurations such as lightning, analog method, and digital method).

また、CPU101(指示動作検出部1014)は、図10に示すように、指示者が保持する物500(反射材、所定の模様を有する物)から指示者の権限を判定してもよい。ここで、指示者が保持する物と権限の対応関係は予めメモリ102に記憶される。CPU101(第1の車両制御部1015)は、権限に応じて車両400の制御を許可する。これにより、例えば、一般の人と誘導員等の権限を変更することができる。   Further, as shown in FIG. 10, the CPU 101 (instruction operation detection unit 1014) may determine the authority of the instructor from an object 500 (reflecting material, object having a predetermined pattern) held by the instructor. Here, the correspondence relationship between the object and authority held by the instructor is stored in the memory 102 in advance. CPU101 (1st vehicle control part 1015) permits control of the vehicle 400 according to authority. Thereby, authority, such as a general person and a guidance person, can be changed, for example.

上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。   Each of the above-described configurations, functions, and the like may be realized by hardware, for example, by designing a part or all of them with an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

100…ECU
101…CPU
102…メモリ
103…I/F
200…カメラ
300…光源、音源、又はディスプレイ
400…車両
500…物
1011…指示者検出部
1012…信号送出部
1013…応答動作検出部
1014…指示動作検出部
1015…第1の車両制御部
1016…第2の車両制御部
100 ... ECU
101 ... CPU
102 ... Memory 103 ... I / F
DESCRIPTION OF SYMBOLS 200 ... Camera 300 ... Light source, sound source, or display 400 ... Vehicle 500 ... Object 1011 ... Instructor detection part 1012 ... Signal sending part 1013 ... Response action detection part 1014 ... Instruction action detection part 1015 ... First vehicle control part 1016 ... Second vehicle control unit

Claims (10)

指示者を検出する指示者検出部と、
前記指示者の指示を示す指示動作を検出する指示動作検出部と、
前記指示動作が検出された場合、前記指示動作が示す前記指示に応じて車両を制御する第1の車両制御部と、
を備えることを特徴とする車両制御装置。
An instructor detection unit for detecting an instructor;
An instruction operation detector for detecting an instruction operation indicating an instruction of the instructor;
A first vehicle control unit configured to control a vehicle in response to the instruction indicated by the instruction operation when the instruction operation is detected;
A vehicle control device comprising:
請求項1に記載の車両制御装置であって、
前記指示者が検出された場合、前記指示者に第1の信号を送出する信号送出部をさらに備える
ことを特徴とする車両制御装置。
The vehicle control device according to claim 1,
A vehicle control device, further comprising: a signal sending unit that sends a first signal to the instructor when the instructor is detected.
請求項2に記載の車両制御装置であって、
前記指示者の応答を示す応答動作を検出する応答動作検出部と、
前記応答動作が検出された場合、前記車両を前記指示者に近づける制御を行う第2の車両制御部と、
をさらに備えることを特徴とする車両制御装置。
The vehicle control device according to claim 2,
A response operation detecting unit for detecting a response operation indicating a response of the instructor;
A second vehicle control unit that performs control to bring the vehicle closer to the instructor when the response operation is detected;
The vehicle control device further comprising:
請求項3に記載の車両制御装置であって、
前記信号送出部は、
前記応答動作が検出された場合、前記第1の信号と異なる第2の信号を送出する
ことを特徴とする車両制御装置。
The vehicle control device according to claim 3,
The signal sending unit
A vehicle control device that sends a second signal different from the first signal when the response operation is detected.
請求項1に記載の車両制御装置であって、
第2の車両制御部をさらに備え、
前記指示動作検出部は、
前記指示動作を予測し、
前記第2の車両制御部は、
前記指示動作が予測された場合、前記車両を前記指示者に近づける制御を行う
ことを特徴とする車両制御装置。
The vehicle control device according to claim 1,
A second vehicle control unit;
The instruction operation detection unit
Predicting the instruction action,
The second vehicle control unit
When the said instruction | indication operation | movement is estimated, control which brings the said vehicle close to the said instructor is performed. The vehicle control apparatus characterized by the above-mentioned.
請求項1に記載の車両制御装置であって、
前記指示者は少なくとも第1の指示者と第2の指示者を含み、
前記指示動作検出部は、
前記第1の指示者の前記指示動作に前記第2の指示者を指し示す動作が含まれる場合、前記第1の指示者の前記指示動作に続いて前記第2の指示者の前記指示動作を検出し、
前記第1の車両制御部は、
前記第1の指示者の前記指示動作が示す指示に応じて前記車両を制御した後、前記第2の指示者の前記指示動作が示す指示に応じて前記車両を制御する
ことを特徴とする車両制御装置。
The vehicle control device according to claim 1,
The instructor includes at least a first instructor and a second instructor,
The instruction operation detection unit
When the instruction operation of the first instructor includes an operation of pointing the second instructor, the instruction operation of the second instructor is detected following the instruction operation of the first instructor. And
The first vehicle control unit
The vehicle is controlled in accordance with an instruction indicated by the instruction operation of the second instructor after the vehicle is controlled in accordance with an instruction indicated by the instruction operation of the first instructor. Control device.
請求項1に記載の車両制御装置であって、
前記指示動作検出部は、
前記指示者が保持する物から前記指示者の権限を判定し、
前記第1の車両制御部は、
前記権限に応じて前記車両の制御を許可する
ことを特徴とする車両制御装置。
The vehicle control device according to claim 1,
The instruction operation detection unit
Determine the authority of the instructor from what the instructor holds,
The first vehicle control unit
A vehicle control device that permits control of the vehicle according to the authority.
請求項3に記載の車両制御装置を含む車両制御システムであって、
画像を撮像するカメラと、
光源、音源、又はディスプレイのうち少なくとも1つを含み、
前記車両制御装置は、
前記カメラで撮像された画像から前記指示者を検出する前記指示者検出部と、
前記指示者が検出された場合、前記光源、前記音源又は前記ディスプレイのうち少なくとも1つを制御することで前記指示者に前記第1の信号を送出する信号送出部と、
前記カメラで撮像された画像から前記応答動作を検出する前記応答動作検出部と、
前記応答動作が検出された場合、前記車両を前記指示者に近づける制御を行う前記第2の車両制御部と、
前記カメラで撮像された画像から前記指示動作を検出する前記指示動作検出部と、
前記指示動作が検出された場合、前記指示動作が示す前記指示に応じて前記車両を制御する前記第1の車両制御部と、を備える
ことを特徴とする車両制御システム。
A vehicle control system including the vehicle control device according to claim 3,
A camera for capturing images;
Including at least one of a light source, a sound source, or a display;
The vehicle control device includes:
The instructor detection unit for detecting the instructor from an image captured by the camera;
A signal sending unit for sending the first signal to the instructor by controlling at least one of the light source, the sound source, or the display when the instructor is detected;
The response operation detecting unit for detecting the response operation from an image captured by the camera;
The second vehicle control unit that performs control to bring the vehicle closer to the instructor when the response operation is detected;
The instruction operation detection unit for detecting the instruction operation from an image captured by the camera;
A vehicle control system comprising: the first vehicle control unit that controls the vehicle according to the instruction indicated by the instruction action when the instruction action is detected.
請求項8に記載の車両制御システムであって、
前記第2の車両制御部は、
前記カメラの画角に応じて前記車両を前記指示者に近づける制御を行う
ことを特徴とする車両制御システム。
The vehicle control system according to claim 8,
The second vehicle control unit
A vehicle control system that performs control to bring the vehicle closer to the instructor according to an angle of view of the camera.
請求項8に記載の車両制御システムであって、
前記指示者は2以上であり、
前記第2の車両制御部は、
前記カメラからの距離が近い順に、前記車両をそれぞれの前記指示者に近づける制御を行う
ことを特徴とする車両制御システム。
The vehicle control system according to claim 8,
The instructor is 2 or more,
The second vehicle control unit
A vehicle control system that performs control such that the vehicle approaches each of the instructors in order of increasing distance from the camera.
JP2018062256A 2018-03-28 2018-03-28 Vehicle control device and vehicle control system Active JP6978973B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018062256A JP6978973B2 (en) 2018-03-28 2018-03-28 Vehicle control device and vehicle control system
CN201980022095.8A CN111918807A (en) 2018-03-28 2019-03-12 Vehicle control device and vehicle control system
PCT/JP2019/009876 WO2019188234A1 (en) 2018-03-28 2019-03-12 Vehicle control device and vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018062256A JP6978973B2 (en) 2018-03-28 2018-03-28 Vehicle control device and vehicle control system

Publications (2)

Publication Number Publication Date
JP2019172052A true JP2019172052A (en) 2019-10-10
JP6978973B2 JP6978973B2 (en) 2021-12-08

Family

ID=68061440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018062256A Active JP6978973B2 (en) 2018-03-28 2018-03-28 Vehicle control device and vehicle control system

Country Status (3)

Country Link
JP (1) JP6978973B2 (en)
CN (1) CN111918807A (en)
WO (1) WO2019188234A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021125123A (en) * 2020-02-07 2021-08-30 トヨタ自動車株式会社 Control apparatus of automatic driving vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006264465A (en) * 2005-03-23 2006-10-05 Advics:Kk Vehicle driving support system
US20150251697A1 (en) * 2014-03-06 2015-09-10 Ford Global Technologies, Llc Vehicle target identification using human gesture recognition
JP2017121865A (en) * 2016-01-07 2017-07-13 トヨタ自動車株式会社 Automatic drive vehicle
WO2017146815A1 (en) * 2016-02-22 2017-08-31 Uber Technologies, Inc. Intention signaling for an autonomous vehicle
JP2017533609A (en) * 2014-08-26 2017-11-09 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド Integrated wearables for interactive mobile control systems
JP2018045397A (en) * 2016-09-14 2018-03-22 本田技研工業株式会社 Automatic operation vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008174192A (en) * 2007-01-22 2008-07-31 Aisin Aw Co Ltd Parking support method and parking support device
JP2013156793A (en) * 2012-01-30 2013-08-15 Hitachi Consumer Electronics Co Ltd Collision risk avoidance system for vehicle
JP6393537B2 (en) * 2014-07-09 2018-09-19 株式会社デンソーテン Vehicle apparatus, vehicle control system, and vehicle control method
CN108698550B (en) * 2016-02-26 2021-03-12 三菱电机株式会社 Parking assist apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006264465A (en) * 2005-03-23 2006-10-05 Advics:Kk Vehicle driving support system
US20150251697A1 (en) * 2014-03-06 2015-09-10 Ford Global Technologies, Llc Vehicle target identification using human gesture recognition
JP2017533609A (en) * 2014-08-26 2017-11-09 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド Integrated wearables for interactive mobile control systems
JP2017121865A (en) * 2016-01-07 2017-07-13 トヨタ自動車株式会社 Automatic drive vehicle
WO2017146815A1 (en) * 2016-02-22 2017-08-31 Uber Technologies, Inc. Intention signaling for an autonomous vehicle
JP2018045397A (en) * 2016-09-14 2018-03-22 本田技研工業株式会社 Automatic operation vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021125123A (en) * 2020-02-07 2021-08-30 トヨタ自動車株式会社 Control apparatus of automatic driving vehicle
JP7331721B2 (en) 2020-02-07 2023-08-23 トヨタ自動車株式会社 Control device for self-driving vehicles

Also Published As

Publication number Publication date
CN111918807A (en) 2020-11-10
JP6978973B2 (en) 2021-12-08
WO2019188234A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
US10217361B2 (en) Apparatus and method for sensing and notifying pedestrian
US10303257B2 (en) Communication between autonomous vehicle and external observers
JP6855542B2 (en) Methods, devices, equipment and storage media that provide feedback outside the vehicle
JP7163407B2 (en) Collision control method and device, electronic device and storage medium
JP2020042778A (en) Method, apparatus, device and storage medium for passing unmanned vehicle at intersection
JPWO2018078713A1 (en) Peripheral information determination device
JP2024063147A (en) Vehicle-mounted equipment
JP7345123B2 (en) Information processing device, information processing method, and computer program
JP6749483B2 (en) Notification control device and notification control method
US10821886B1 (en) Sensor-based acknowledgments between road traffic participants
JP2017102665A (en) Driving support device
JP2007304729A (en) Traveling support system and traveling support device for vehicle
JP2019212276A (en) Method, processing device and system for driving prediction
JP2017100562A (en) Drive control device, drive control method and program
WO2019188234A1 (en) Vehicle control device and vehicle control system
JP2019149131A (en) Driving support device
JP2016224717A (en) Driving support apparatus and driving support method
CN111532268A (en) Vehicle, and control device and control method thereof
JP2008243013A (en) Imaging system
JP2012203829A (en) Moving body detection system for vehicle
JPWO2019220229A1 (en) ECU and lane departure warning system
JP2022126492A (en) Vehicle control device and vehicle control method
JP6776535B2 (en) Vehicle control unit
JP2009230560A (en) Signal recognition device and signal recognition processing program
JP2021133777A (en) Travel support apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211112

R150 Certificate of patent or registration of utility model

Ref document number: 6978973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150