JP2017121865A - Automatic drive vehicle - Google Patents

Automatic drive vehicle Download PDF

Info

Publication number
JP2017121865A
JP2017121865A JP2016001728A JP2016001728A JP2017121865A JP 2017121865 A JP2017121865 A JP 2017121865A JP 2016001728 A JP2016001728 A JP 2016001728A JP 2016001728 A JP2016001728 A JP 2016001728A JP 2017121865 A JP2017121865 A JP 2017121865A
Authority
JP
Japan
Prior art keywords
vehicle
user
gesture
driving vehicle
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016001728A
Other languages
Japanese (ja)
Inventor
宮田 正浩
Masahiro Miyata
正浩 宮田
充啓 馬渕
Mitsuhiro Mabuchi
充啓 馬渕
中智 周
Chuchi Shu
中智 周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016001728A priority Critical patent/JP2017121865A/en
Publication of JP2017121865A publication Critical patent/JP2017121865A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the convenience of the user of an automatic drive vehicle.SOLUTION: An automatic drive vehicle (1) includes: an imaging part (13) for imaging at least a part of surroundings of a vehicle itself; a storage part (12) for pre-storing user image information related to a user of the vehicle and gesture image information related to one or plural gestures representing a given vehicular action; and control parts (11, 12) for collating at least an image imaged by the imaging part with the user image information, identifying a user gesture from the image imaged by the imaging part and the gesture image information under a condition that a user exists nearby the vehicle, and automatically controlling the vehicle so as to perform a vehicular action represented by the identified gesture.SELECTED DRAWING: Figure 3

Description

本発明は、自動運転を行う自動運転車両の技術分野に関する。   The present invention relates to a technical field of an autonomous driving vehicle that performs autonomous driving.

この種の車両として、ユーザが所持する携帯端末により遠隔操作される車両が提案されている(特許文献1参照)。ここでは特に、自車両の駐車位置と、該自車両に搭乗予定のユーザの位置とに基づいて出庫位置が決定され、該決定された出庫位置まで自車両が自動的に移動することが開示されている。   As this type of vehicle, a vehicle that is remotely operated by a mobile terminal possessed by a user has been proposed (see Patent Document 1). In particular, it is disclosed that the delivery position is determined based on the parking position of the host vehicle and the position of the user who is scheduled to board the host vehicle, and the host vehicle automatically moves to the determined exit position. ing.

特開2013−177128号公報JP 2013-177128 A

特許文献1に記載の技術には、ユーザの利便性について改善の余地がある。   The technique described in Patent Document 1 has room for improvement in terms of user convenience.

本発明は、上記事実に鑑みてなされたものであり、ユーザの利便性を向上させることができる自動運転車両を提供することを課題とする。   This invention is made | formed in view of the said fact, and makes it a subject to provide the autonomous driving vehicle which can improve a user's convenience.

本発明の自動運転車両は、上記課題を解決するために、当該車両の周辺の少なくとも一部を撮像する撮像部と、当該車両のユーザに関するユーザ画像情報と、所定の車両動作を示す一又は複数のジェスチャーに関するジェスチャー画像情報とを予め記憶する記憶部と、少なくとも前記撮像部により撮像された画像と前記ユーザ画像情報とを照合し、当該車両の周辺に前記ユーザが存在することを条件に、前記撮像部により撮像された画像と前記ジェスチャー画像情報とから、前記ユーザのジェスチャーを特定し、該特定されたジェスチャーにより示される車両動作が実行されるように当該車両を自動制御する制御部と、を備える。   In order to solve the above-described problem, an autonomous driving vehicle according to the present invention includes an imaging unit that images at least a part of the periphery of the vehicle, user image information regarding a user of the vehicle, and one or a plurality of predetermined vehicle operations. A storage unit that preliminarily stores gesture image information related to the gesture, and an image captured by at least the image capturing unit and the user image information, and on the condition that the user exists in the vicinity of the vehicle A control unit that identifies the user's gesture from the image captured by the imaging unit and the gesture image information, and automatically controls the vehicle so that the vehicle operation indicated by the identified gesture is executed; Prepare.

本発明の自動運転車両は、撮像部により撮像された画像から、ユーザのジェスチャーを特定し、該特定されたジェスチャーにより示される車両動作を自動的に実行する。ユーザの視点では、ユーザが所定のジェスチャーを行うことにより、車両を遠隔操作することができる。従って、本発明によれば、例えば携帯端末により車両を遠隔操作する場合に比べて、ユーザの利便性を向上させることができる。   The self-driving vehicle of the present invention specifies a user's gesture from an image captured by the imaging unit, and automatically executes a vehicle operation indicated by the identified gesture. From the user's viewpoint, the user can remotely control the vehicle by making a predetermined gesture. Therefore, according to the present invention, the convenience of the user can be improved as compared with, for example, a case where the vehicle is remotely operated by a portable terminal.

本発明の自動運転車両の一態様では、当該車両に対応する電子キーから送信される電波信号を受信する受信部を更に備え、前記制御部は、前記受信部が前記電波信号を受信した場合に、前記撮像部により撮像された画像と前記ユーザ画像情報とを照合する。   In one aspect of the autonomous driving vehicle of the present invention, the vehicle further includes a receiving unit that receives a radio signal transmitted from an electronic key corresponding to the vehicle, and the control unit receives the radio signal when the receiving unit receives the radio signal. The image captured by the image capturing unit is collated with the user image information.

この態様によれば、受信部が、当該車両に対応する電子キーの電波信号を受信した場合(即ち、ユーザが当該車両からある程度の範囲内に存在する場合)に、撮像された画像とユーザ画像情報との照合が行われる(即ち、ユーザ認識が行われる)。このため、例えば待機中の車両の消費電力量を抑制することができる。   According to this aspect, when the receiving unit receives the radio signal of the electronic key corresponding to the vehicle (that is, when the user is within a certain range from the vehicle), the captured image and the user image Verification with information is performed (that is, user recognition is performed). For this reason, for example, the power consumption of the vehicle in standby can be suppressed.

本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。   The effect | action and other gain of this invention are clarified from the form for implementing demonstrated below.

実施形態に係る自動運転車両の構成を示すブロック図である。It is a block diagram which shows the structure of the autonomous driving vehicle which concerns on embodiment. 実施形態に係る自動運転車両が実行する処理の一部を示すフローチャートである。It is a flowchart which shows a part of process which the automatic driving vehicle which concerns on embodiment performs. 実施形態に係る遠隔操作処理を示すフローチャートである。It is a flowchart which shows the remote operation process which concerns on embodiment.

本発明の自動運転車両に係る実施形態について、図1乃至図3を参照して説明する。本実施形態に係る自動運転車両は、車外のユーザのジェスチャーを認識可能な場合に、認識されたジェスチャーに応じて、所定範囲内(例えば数メートル〜数十メートル)を自動的に移動可能に構成されている。当該自動運転車両は、特に、駐車スペースが比較的狭く、該駐車スペースに駐車した状態での乗り降りが難しい場合に、ジェスチャーによる駐車や出庫を行うことができる。つまり、ユーザは、ジェスチャーという比較的簡便な方法により自動運転車両を遠隔操作することができる。   An embodiment according to the autonomous driving vehicle of the present invention will be described with reference to FIGS. 1 to 3. The self-driving vehicle according to the present embodiment is configured to automatically move within a predetermined range (for example, several meters to several tens of meters) in accordance with the recognized gesture when the gesture of the user outside the vehicle can be recognized. Has been. The self-driving vehicle can perform parking and unloading with a gesture, particularly when the parking space is relatively narrow and it is difficult to get on and off in the state where the parking space is parked. That is, the user can remotely control the autonomous driving vehicle by a relatively simple method called gesture.

以下では、先ず、自動運転車両の概要を説明し、次に、駐車スペースから自動運転車両を出庫させる例を挙げつつ遠隔操作処理について説明する。   Below, the outline | summary of an autonomous driving vehicle is demonstrated first, and the remote control process is demonstrated next, giving the example of leaving an autonomous driving vehicle from a parking space first.

(車両の構成)
実施形態に係る自動運転車両の構成について、図1を参照して説明する。尚、本実施形態に係る自動運転車両は、駆動源としてエンジンのみを備える車両(所謂コンベンショナル車)であってもよいし、ハイブリッド車両であってもよいし、或いは、電気自動車であってもよい。
(Vehicle configuration)
The configuration of the autonomous driving vehicle according to the embodiment will be described with reference to FIG. Note that the autonomous driving vehicle according to the present embodiment may be a vehicle including only an engine as a drive source (a so-called conventional vehicle), a hybrid vehicle, or an electric vehicle. .

図1において、自動運転車両1は、制御用パーソナルコンピュータ(以降、適宜“制御用PC”と称する)11と、認識用パーソナルコンピュータ(以降、適宜“認識用PC”と称する)12と、自動運転車両1の周辺の少なくとも一部を撮像するカメラ13と、自動運転車両1の車内の少なくとも一部を撮像するカメラ14と、地図データベース15と、当該自動運転車両1に対応する電子キー20から発信される電波信号を受信可能な受信部16a〜16dと、車速センサ17と、例えばLidar(Light Detection and Ranging)等である物体検出センサ18と、を備えて構成されている。   In FIG. 1, an automatic driving vehicle 1 includes a control personal computer (hereinafter referred to as “control PC” as appropriate) 11, a recognition personal computer (hereinafter referred to as “recognition PC” as appropriate) 12, and automatic operation. Transmission from a camera 13 that captures at least a part of the periphery of the vehicle 1, a camera 14 that captures at least a part of the interior of the autonomous driving vehicle 1, a map database 15, and an electronic key 20 corresponding to the autonomous driving vehicle 1. Receivers 16a to 16d that can receive the received radio wave signal, a vehicle speed sensor 17, and an object detection sensor 18 such as Lidar (Light Detection and Ranging), for example.

制御用PC11は、自動運転車両1のユーザからの指示により、所定の出庫プログラムに基づいた自動運転車両1の出庫を行う(詳細については後述する)。   The control PC 11 issues the automated driving vehicle 1 based on a predetermined delivery program according to an instruction from the user of the autonomous driving vehicle 1 (details will be described later).

認識用PC12は、自動運転車両1のユーザの顔画像を含むユーザ画像情報と、上記出庫プログラムに係る車両挙動を示すジェスチャーに関するジェスチャー画像情報と、を予め記憶する、例えばハードディスクや不揮発性メモリ等の記憶部(図示せず)を有している。   The recognition PC 12 stores in advance user image information including a face image of the user of the autonomous driving vehicle 1 and gesture image information related to a gesture indicating a vehicle behavior related to the leaving program, such as a hard disk or a nonvolatile memory. A storage unit (not shown) is included.

ジェスチャー画像情報には、出庫プログラムの実行を意味する「GO」に対応するジェスチャー(例えば片手を挙げる、手招きする等)と、緊急停止を意味する「STOP」に対応するジェスチャー(例えば、上向けて開いた掌を前に出す等)とが含まれている。ジェスチャー画像情報には、「GO」及び「STOP」に限らず、3以上のジェスチャーが含まれていてもよいし、或いは、1つのジェスチャーのみ含まれていてもよい。   The gesture image information includes a gesture corresponding to “GO” (for example, raising one hand, beckoning, etc.) indicating execution of the exit program, and a gesture (for example, pointing up) corresponding to “STOP” indicating emergency stop. Etc.). The gesture image information is not limited to “GO” and “STOP”, and may include three or more gestures, or may include only one gesture.

制御用PC11及び認識用PC12以外の構成要素には、既存の各種態様を適用可能であるので、その詳細についての説明は割愛する。尚、カメラ13及び14各々は、1台のカメラに限らず、複数台のカメラから構成されていてよい。   Since various existing aspects can be applied to the components other than the control PC 11 and the recognition PC 12, a detailed description thereof will be omitted. Each of the cameras 13 and 14 is not limited to one camera and may be composed of a plurality of cameras.

(駐車時の処理)
次に、制御用PC11が、自動運転車両1が駐車スペースに駐車しているときに実行する処理について、図2のフローチャートを参照して説明する。制御用PC11及び受信部16a〜16dには、自動運転車両1の駐車時(即ち、イグニッションオフ時)にも微小電力が、バッテリ(図示せず)から供給されている。
(Processing when parking)
Next, processing executed when the control PC 11 is parked in the parking space will be described with reference to the flowchart of FIG. The control PC 11 and the receiving units 16a to 16d are supplied with minute electric power from a battery (not shown) even when the autonomous driving vehicle 1 is parked (that is, when the ignition is off).

図2において、制御用PC11は、自動運転車両1のユーザ(ここでは、電子キー20を所持している人)の接近を検出する(ステップS101)。具体的には、制御用PC11は、電子キー20から発信される電波信号の、受信部16a〜16dの少なくとも一つにおける受信強度に基づいて、自動運転車両1とユーザとの間の距離を推定する。制御用PC11は、該推定された距離が所定距離以内である場合に、ユーザの接近が検出されたと判定する。   In FIG. 2, the control PC 11 detects the approach of the user of the autonomous driving vehicle 1 (here, the person holding the electronic key 20) (step S101). Specifically, the control PC 11 estimates the distance between the autonomous driving vehicle 1 and the user based on the reception intensity of the radio signal transmitted from the electronic key 20 in at least one of the receiving units 16a to 16d. To do. The control PC 11 determines that the approach of the user has been detected when the estimated distance is within a predetermined distance.

ステップS101の処理において、ユーザの接近が検出されない場合(ステップS101:No)、制御用PC11は、一旦処理を終了し、所定時間後に再びステップS101の処理を実行する。   If the approach of the user is not detected in the process of step S101 (step S101: No), the control PC 11 once ends the process, and executes the process of step S101 again after a predetermined time.

他方、ステップS101の処理において、ユーザの接近が検出された場合(ステップS101:Yes)、制御用PC11は、電子キー20から発信される電波信号の受信強度の時間変化に基づいて、ユーザの移動速度を求め、該求められた移動速度が一定速度以上であるか否かを判定する(ステップS102)。   On the other hand, when the approach of the user is detected in the process of step S101 (step S101: Yes), the control PC 11 moves the user based on the time change of the reception intensity of the radio signal transmitted from the electronic key 20. A speed is obtained and it is determined whether or not the obtained moving speed is equal to or higher than a certain speed (step S102).

ステップS102の判定の結果、求められた移動速度が一定速度以上であると判定された場合(ステップS102:Yes)、制御用PC11は、一旦処理を終了し、所定時間後に再びステップS101の処理を実行する。この場合、ユーザが自動運転車両1の周囲を通り過ぎる可能性が高いからである。   As a result of the determination in step S102, when it is determined that the determined moving speed is equal to or higher than a certain speed (step S102: Yes), the control PC 11 once ends the process, and after a predetermined time, performs the process in step S101 again. Run. This is because there is a high possibility that the user will pass around the autonomous driving vehicle 1.

他方、ステップS102の判定の結果、求められた移動速度が一定速度未満であると判定された場合(ステップS102:No)、制御用PC11は、自動運転車両1の電源を投入する(ステップS103)。このステップS103の処理の結果、認識用PC12、カメラ13及び14等に電力が供給される。   On the other hand, as a result of the determination in step S102, when it is determined that the obtained moving speed is less than the constant speed (step S102: No), the control PC 11 turns on the power of the autonomous driving vehicle 1 (step S103). . As a result of the processing in step S103, power is supplied to the recognition PC 12, the cameras 13 and 14, and the like.

ここで、「電源を投入」とは、所謂コンベンショナル車であれば、主要な電装品が立ち上がり、エンジンを始動させることができる状態を意味し、ハイブリッド車や電気自動車であれば、走行可能な状態(所謂レディ状態)を意味する。   Here, “turning on the power” means a state in which main electrical components can be started and the engine can be started in a so-called conventional vehicle, and in a hybrid vehicle or an electric vehicle, the vehicle can be driven. (So-called ready state).

(遠隔操作処理)
次に、上述したステップS103の処理の後に実行される、遠隔操作処理について、図3のフローチャートを参照して説明する。本実施形態では、自動運転車両1を遠隔操作により駐車スペースから出庫させる例を挙げる。
(Remote operation processing)
Next, the remote operation process executed after the process of step S103 described above will be described with reference to the flowchart of FIG. In the present embodiment, an example is given in which the autonomous driving vehicle 1 is left from a parking space by remote control.

1.認識用PCの動作(1)
図3において、認識用PC12は、受信部16a〜16d各々において受信された電子キー20から発信される電波信号の受信強度に基づいて、電子キー20の位置(例えば、自動運転車両1を中心とした方角、自動運転車両1からの距離等)を特定する(ステップS211)。尚、電子キー20の位置特定方法には、既存の技術を適用可能であるので、その詳細についての説明は割愛する。
1. Recognition PC operation (1)
In FIG. 3, the recognition PC 12 determines the position of the electronic key 20 (for example, centering on the autonomous driving vehicle 1 based on the reception intensity of the radio signal transmitted from the electronic key 20 received by each of the receiving units 16 a to 16 d. And the like, the distance from the autonomous driving vehicle 1, etc.) are specified (step S211). Since the existing technique can be applied to the method for specifying the position of the electronic key 20, a detailed description thereof will be omitted.

次に、認識用PC12は、カメラ13により撮像された画像のうち、ステップS211の処理において特定された電子キー20の位置に相当する画像と、記憶部に予め記憶されているユーザ画像情報に含まれる顔画像とを照合する(ステップS212)。   Next, the recognition PC 12 includes the image corresponding to the position of the electronic key 20 specified in the process of step S211 among the images captured by the camera 13 and the user image information stored in advance in the storage unit. The face image to be checked is collated (step S212).

次に、認識用PC12は、ドライバー(ここでは、電子キー20を所持しているユーザ)を特定したか否かを判定する(ステップS213)。具体的には、認識用PC12は、カメラ13により撮像された画像とユーザ画像情報に含まれる顔画像とを照合して(つまり、顔画像に基づく顔認証を行い)、該当者がいた場合に、ドライバーを特定したと判定する。他方で、該当者がいない場合、認識用PC12は、ドライバーを特定していないと判定する。   Next, the recognition PC 12 determines whether or not a driver (here, a user holding the electronic key 20) has been identified (step S213). Specifically, the recognition PC 12 collates the image captured by the camera 13 with the face image included in the user image information (that is, performs face authentication based on the face image), and there is a corresponding person. It is determined that the driver has been identified. On the other hand, when there is no corresponding person, the recognition PC 12 determines that the driver is not specified.

尚、「該当者がいない場合」は、ユーザ画像情報により示されるユーザがいない場合に限らず、例えば他人や建造物等の何らかの障害物により、ユーザが鮮明に撮像されず、顔認証ができなかった場合も含む。   Note that “there is no corresponding person” is not limited to the case where there is no user indicated by the user image information. For example, the user cannot be clearly imaged due to some obstacle such as another person or a building, and face authentication cannot be performed. Including cases.

ステップS213の判定の結果、ドライバーを特定していないと判定された場合(ステップS213:No)、認識用PC12は、処理を一旦終了し、所定時間後に再びステップS211の処理を実行する。   As a result of the determination in step S213, when it is determined that the driver is not specified (step S213: No), the recognition PC 12 once ends the process, and executes the process of step S211 again after a predetermined time.

他方、ステップS213の判定の結果、ドライバーを特定したと判定された場合(以降、適宜、“電子キー20を所持するユーザ”を“ドライバー”と称する)(ステップS213:Yes)、認識用PC12は、カメラ13により撮像された画像に含まれるドライバーの画像を記憶部に記憶する(以降、“記憶された特定ドライバー画像”と称する)。   On the other hand, if it is determined that the driver has been specified as a result of the determination in step S213 (hereinafter, “user holding the electronic key 20” is referred to as “driver” as appropriate) (step S213: Yes), the recognition PC 12 The driver image included in the image captured by the camera 13 is stored in the storage unit (hereinafter referred to as “stored specific driver image”).

認識用PC12は、更に、カメラ13により撮像された画像に含まれるドライバーの画像と、記憶部に予め記憶されているジェスチャー画像情報とを照合する。具体的には例えば、認識用PC12は、ドライバーの画像から特徴点を抽出し、該抽出された特徴点とジェスチャー画像情報とを用いたパターンマッチングを行う。   The recognition PC 12 further collates the driver image included in the image captured by the camera 13 with the gesture image information stored in advance in the storage unit. Specifically, for example, the recognition PC 12 extracts feature points from the driver image, and performs pattern matching using the extracted feature points and gesture image information.

続いて、認識用PC12は、照合の結果に基づいて、ドライバーのジェスチャーが認識されたか否か(即ち、ドライバーのジェスチャーが特定されたか否か)を判定する(ステップS214)。   Subsequently, the recognition PC 12 determines whether or not the driver's gesture has been recognized (that is, whether or not the driver's gesture has been identified) based on the collation result (step S214).

ステップS214の判定の結果、ドライバーのジェスチャーが認識されないと判定された場合(ステップS214:No)、認識用PC12は、処理を一旦終了し、所定時間後に再びステップS211の処理を実行してもよい。尚、上記ステップS214の処理では、典型的には、ドライバーが特定されてから所定の認識期間内にジェスチャーが認識されなかった場合に、「ジェスチャーが認識されない」と判定される。従って、認識用PC12は、認識期間内にカメラ13により逐次撮像された画像に含まれるドライバー画像と、ジェスチャー画像情報とを照合することとなる。   As a result of the determination in step S214, if it is determined that the driver's gesture is not recognized (step S214: No), the recognition PC 12 may end the process once and execute the process in step S211 again after a predetermined time. . In the process of step S214, typically, when a gesture is not recognized within a predetermined recognition period after the driver is specified, it is determined that “the gesture is not recognized”. Therefore, the recognition PC 12 collates the driver image included in the images sequentially captured by the camera 13 within the recognition period with the gesture image information.

他方、ステップS214の判定の結果、ドライバーのジェスチャーが認識されたと判定された場合(ステップS214:Yes)、認識用PC12は、ドライバーが意図してジェスチャーを行っているか否か(即ち、ドライバーに遠隔操作の意志があるか否か)を判定する(ステップS215)。   On the other hand, if it is determined as a result of the determination in step S214 that the driver's gesture has been recognized (step S214: Yes), the recognition PC 12 determines whether or not the driver is intentionally performing the gesture (that is, remote to the driver). It is determined whether or not there is an intention to operate (step S215).

具体的には例えば、認識用PC12は、(i)カメラ13により撮像された画像からドライバーの目線方向を特定し、該特定された目線方向が自動運転車両1の方向であるか否か、及び(ii)カメラ13により撮像された画像からドライバーが、上記ステップS214の処理において認識されたジェスチャーを継続しているか否か、を判定する。認識用PC12は、特定されたドライバーの目線方向が自動運転車両1の方向であり(即ち、ドライバーが自動運転車両1を見ており)、且つ、ドライバーが認識されたジェスチャーを継続している場合に、ドライバーに遠隔操作の意志があると判定する。   Specifically, for example, the recognition PC 12 specifies (i) the driver's line-of-sight direction from the image captured by the camera 13, and whether the specified line-of-sight direction is the direction of the autonomous driving vehicle 1, and (Ii) It is determined from the image captured by the camera 13 whether or not the driver continues the gesture recognized in the process of step S214. In the recognition PC 12, the direction of the identified driver's line of sight is the direction of the autonomous driving vehicle 1 (that is, the driver is looking at the autonomous driving vehicle 1), and the driver continues the recognized gesture. Then, it is determined that the driver has the will of remote control.

ステップS215の判定の結果、ドライバーに遠隔操作の意志がないと判定された場合(ステップS215:No)、認識用PC12は、処理を一旦終了し、所定時間後に再びステップS211の処理を実行してもよい。   As a result of the determination in step S215, if it is determined that the driver does not intend to perform remote operation (step S215: No), the recognition PC 12 ends the process once, and executes the process in step S211 again after a predetermined time. Also good.

他方、ステップS215の判定の結果、ドライバーに遠隔操作の意志があると判定された場合(ここでは、ドライバーが、出庫プログラムの実行を意味する“GO”に対応するジェスチャーを行っているものとする)(ステップS215:Yes)、認識用PC12は、制御用PC11に対し、自動運転車両1の出庫指示を示す信号を送信する(ステップS216)。   On the other hand, if it is determined as a result of the determination in step S215 that the driver is willing to perform remote control (here, it is assumed that the driver is performing a gesture corresponding to “GO” meaning execution of the exit program). (Step S215: Yes), the recognition PC 12 transmits a signal indicating an instruction to leave the autonomous driving vehicle 1 to the control PC 11 (Step S216).

2.制御用PCの動作(1)
認識用PC12から出庫指示を示す信号を受信した制御用PC11は、自動運転車両1が移動することをドライバー(更には、周囲の人)に通知するために、例えばハザードランプを点滅させたり、ヘッドライトを点灯させたりする(ステップS231)。
2. Operation of control PC (1)
The control PC 11 that has received the signal indicating the exit instruction from the recognition PC 12 blinks a hazard lamp or the head, for example, to notify the driver (and the surrounding people) that the autonomous driving vehicle 1 moves. A light is turned on (step S231).

続いて、制御用PC11は、出庫プログラムにより予め設定された出庫位置まで自動運転車両1が移動するように、車速センサ17を含む各種センサからの信号に基づいて、操舵機構(図示せず)、駆動機構(図示せず)及び制動機構(図示せず)を夫々制御する(ステップS232)。   Subsequently, the control PC 11 uses a steering mechanism (not shown), based on signals from various sensors including the vehicle speed sensor 17 so that the autonomous driving vehicle 1 moves to a delivery position preset by the delivery program. A drive mechanism (not shown) and a braking mechanism (not shown) are each controlled (step S232).

ここで、出庫位置や、出庫位置までの自動運転車両1の進路は、例えばGPS(Global Positioning System)(図示せず)により認識された自動運転車両1の位置と、地図データベース15と、カメラ13や物体検出センサ18による自動運転車両1周囲の障害物の検出結果と、に基づいて設定される。出庫位置は、典型的には、ドライバーが余裕を持って自動運転車両1に乗り込めるようなスペースを確保できる位置(例えば、ドアを少なくとも約60度開けることが可能な位置)に設定される。出庫位置や進路の具体例については、上述した特許文献1を参照されたし。   Here, the exit position and the route of the autonomous driving vehicle 1 to the exit position are the position of the autonomous driving vehicle 1 recognized by, for example, GPS (Global Positioning System) (not shown), the map database 15, and the camera 13. And the detection result of obstacles around the autonomous driving vehicle 1 by the object detection sensor 18. The delivery position is typically set to a position (for example, a position at which the door can be opened at least about 60 degrees) that can secure a space where the driver can get into the autonomous driving vehicle 1 with a margin. For specific examples of the delivery position and the course, see the above-mentioned Patent Document 1.

また、自動運転車両1の移動中、制御用PC11は、カメラ13や物体検出センサ18による障害物の検出結果に応じて、自動運転車両1が一時停止する(更には、進路変更する)ように制動機構等を制御する。制御用PC11は、例えば、自動運転車両1が一時停止する際に、ヘッドライトを点滅させて、一時停止であることをドライバーに通知するように構成されてもよい。   Further, during the movement of the autonomous driving vehicle 1, the control PC 11 causes the autonomous driving vehicle 1 to temporarily stop (further change the course) according to the obstacle detection result by the camera 13 or the object detection sensor 18. Control the braking mechanism. For example, when the autonomous driving vehicle 1 is temporarily stopped, the control PC 11 may be configured to blink the headlight to notify the driver that the vehicle is temporarily stopped.

自動運転車両1が、所謂コンベンショナル車である場合、ステップS232の処理においてエンジンが自動的に始動される。また、自動運転車両1がハイブリッド車両である場合には、必要に応じてエンジンが自動的に始動される。   When the autonomous driving vehicle 1 is a so-called conventional vehicle, the engine is automatically started in the process of step S232. Further, when the autonomous driving vehicle 1 is a hybrid vehicle, the engine is automatically started as necessary.

3.認識用PC12の動作(2)
認識用PC12は、自動運転車両1の移動中(即ち、上述したステップS216の処理の後)、カメラ13により撮像された画像に含まれるドライバーの画像と、ジェスチャー画像情報とを照合し、ドライバーが、緊急停止を意味する「STOP」に対応するジェスチャーを行ったか否かを判定する(ステップS217)。
3. Operation of PC 12 for recognition (2)
The PC 12 for recognition collates the image of the driver included in the image captured by the camera 13 with the gesture image information while the autonomous driving vehicle 1 is moving (that is, after the processing in step S216 described above). Then, it is determined whether or not a gesture corresponding to “STOP” meaning an emergency stop has been performed (step S217).

ステップS217の判定の結果、ドライバーがSTOPに対応するジェスチャーを行っていないと判定された場合(ステップS217:No)、認識用PC12は、自動運転車両1が所定の出庫位置で停止したか否かを判定する(ステップS218)。自動運転車両1が所定の出庫位置で停止したか否かは、制御用PC11から出力される信号に基づいて判定される。   As a result of the determination in step S217, if it is determined that the driver does not perform a gesture corresponding to STOP (step S217: No), the recognition PC 12 determines whether or not the automatic driving vehicle 1 has stopped at a predetermined delivery position. Is determined (step S218). It is determined based on a signal output from the control PC 11 whether or not the automatic driving vehicle 1 has stopped at a predetermined delivery position.

ステップS218の判定の結果、自動運転車両1が所定の出庫位置で停止していない(移動中である)と判定された場合(ステップS218:No)、認識用PC12は、ステップS217の処理を実行する。つまり、認識用PC12は、自動運転車両1の移動中、常に、ドライバーのジェスチャーをモニタする。   As a result of the determination in step S218, when it is determined that the autonomous driving vehicle 1 is not stopped (moving) at the predetermined leaving position (step S218: No), the recognition PC 12 executes the process of step S217. To do. That is, the recognition PC 12 always monitors the driver's gesture while the autonomous driving vehicle 1 is moving.

尚、自動運転車両1の移動中に、ドライバーがジェスチャーを中断した場合、或いは、ドライバーの目線方向が自動運転車両1とは異なる方向となった場合(つまり、上述したステップS215の処理において、ドライバーに遠隔操作の意志があると判定される条件が不成立となった場合)、認識用PC12は、制御用PC11に対し、ドライバーに遠隔操作の意志がないことを示す信号を送信してもよい。この場合、制御用PC11は、自動運転車両1の周囲の状況を確認しつつ、安全な位置で自動運転車両1を停止させてよい。   In addition, when the driver interrupts the gesture during the movement of the automatic driving vehicle 1 or when the driver's line of sight is different from the direction of the automatic driving vehicle 1 (that is, in the process of step S215 described above, the driver If the condition for determining that the user is willing to perform remote operation is not satisfied), the recognition PC 12 may transmit a signal indicating that the driver does not intend to perform remote operation to the control PC 11. In this case, the control PC 11 may stop the automatic driving vehicle 1 at a safe position while confirming the situation around the automatic driving vehicle 1.

ステップS217の判定の結果、ドライバーがSTOPに対応するジェスチャーを行ったと判定された場合(ステップS217:Yes)、認識用PC12は、制御用PC11に対し、STOPを示す信号を送信する。その後、認識用PC12は、後述するステップS219の処理を実行する。   As a result of the determination in step S217, if it is determined that the driver has made a gesture corresponding to STOP (step S217: Yes), the recognition PC 12 transmits a signal indicating STOP to the control PC 11. Thereafter, the recognition PC 12 executes a process of step S219 described later.

4.制御用PC11の動作(2)
上述したステップS217及びS218の処理と並行して、制御用PC11は、ドライバーがSTOPに対応するジェスチャーを行ったか否かを判定する(ステップS233)。制御用PC11は、認識用PC12からSTOPを示す信号を受信した場合に、ドライバーがSTOPに対応するジェスチャーを行ったと判定する。
4). Operation of control PC 11 (2)
In parallel with the processing of steps S217 and S218 described above, the control PC 11 determines whether or not the driver has made a gesture corresponding to STOP (step S233). When receiving the signal indicating STOP from the recognition PC 12, the control PC 11 determines that the driver has made a gesture corresponding to the STOP.

ステップS233の判定の結果、ドライバーがSTOPに対応するジェスチャーを行ったと判定された場合(ステップS233:Yes)、制御用PC11は、自動運転車両1が直ちに停止するように制動機構を制御して(ステップS236)、後述するステップS237の処理を実行する。   As a result of the determination in step S233, if it is determined that the driver has made a gesture corresponding to STOP (step S233: Yes), the control PC 11 controls the braking mechanism so that the autonomous driving vehicle 1 immediately stops ( Step S236), the process of step S237 described later is executed.

他方、ステップS233の判定の結果、ドライバーがSTOPに対応するジェスチャーを行っていないと判定された場合(ステップS233:No)、制御用PC11は、自動運転車両1が所定の出庫位置まで移動したか否かを判定する(ステップS234)。   On the other hand, as a result of the determination in step S233, if it is determined that the driver does not perform a gesture corresponding to STOP (step S233: No), the control PC 11 determines whether the automatic driving vehicle 1 has moved to a predetermined delivery position. It is determined whether or not (step S234).

ステップS234の判定の結果、自動運転車両1が所定の出庫位置まで移動していないと判定された場合(ステップS234:No)、制御用PC11は、ステップS233の処理を実行する。所定の出庫位置まで移動したか否かは、例えばGPSにより認識された自動運転車両1の位置と地図データベース15とに基づいて判定すればよい。   As a result of the determination in step S234, when it is determined that the autonomous driving vehicle 1 has not moved to the predetermined leaving position (step S234: No), the control PC 11 executes the process in step S233. Whether or not the vehicle has moved to a predetermined delivery position may be determined based on, for example, the position of the autonomous driving vehicle 1 recognized by the GPS and the map database 15.

他方、ステップS234の判定の結果、自動運転車両1が所定の出庫位置まで移動したと判定された場合(ステップS234:Yes)、制御用PC11は、自動運転車両1が停止するように制動機構を制御する(ステップS235)。このとき、制御用PC11は、認識用PC12に対し、自動運転車両1の停止を示す信号を送信する。   On the other hand, as a result of the determination in step S234, when it is determined that the automatic driving vehicle 1 has moved to the predetermined delivery position (step S234: Yes), the control PC 11 sets the braking mechanism so that the automatic driving vehicle 1 stops. Control is performed (step S235). At this time, the control PC 11 transmits a signal indicating the stop of the autonomous driving vehicle 1 to the recognition PC 12.

続いて、制御用PC11は、例えばヘッドライトを点滅させて、ドライバーに自動運転車両1が停止したことを通知する(ステップS237)。   Subsequently, the control PC 11 blinks the headlight, for example, and notifies the driver that the autonomous driving vehicle 1 has stopped (step S237).

5.認識用PCの動作(3)
上述したステップS218の判定の結果、自動運転車両1が停止したと判定された場合(即ち、認識用PC12が、制御用PC11から自動運転車両1の停止を示す信号を受信した場合)(ステップS218:Yes)、或いは、ドライバーがSTOPに対応するジェスチャーを行ったと判定された場合(ステップS217:Yes)、認識用PC12は、カメラ14により撮像された画像と、上述の記憶された特定ドライバー画像とを照合することにより、自動運転車両1の搭乗者を認識する(ステップS219)。
5. PC operation for recognition (3)
As a result of the determination in step S218 described above, when it is determined that the automatic driving vehicle 1 has stopped (that is, when the recognition PC 12 receives a signal indicating the stop of the automatic driving vehicle 1 from the control PC 11) (step S218). : Yes), or when it is determined that the driver has made a gesture corresponding to STOP (step S217: Yes), the recognition PC 12 receives the image captured by the camera 14 and the stored specific driver image described above. To recognize the passenger of the autonomous driving vehicle 1 (step S219).

続いて、認識用PC12は、搭乗者と、上述したステップS213の処理においてドライバーとして特定されたユーザとが同一であるか否かを判定する(ステップS220)。ステップS220の判定の結果、同一であると判定された場合(ステップS220:Yes)、認識用PC12は、制御用PC11に対し、同一であることを示す信号を送信して(ステップS221)、処理を終了する。   Subsequently, the recognition PC 12 determines whether or not the passenger is the same as the user specified as the driver in the process of step S213 described above (step S220). As a result of the determination in step S220, when it is determined that they are the same (step S220: Yes), the recognition PC 12 transmits a signal indicating the same to the control PC 11 (step S221), and the processing Exit.

他方、ステップS220の判定の結果、同一でないと判定された場合(ステップS220:No)、認識用PC12は、制御用PC11に対し、同一でないことを示す信号を送信して、処理を終了する。   On the other hand, as a result of the determination in step S220, when it is determined that they are not the same (step S220: No), the recognition PC 12 transmits a signal indicating that they are not the same to the control PC 11, and ends the process.

尚、認識用PC12は、出庫プログラムの実行後自動運転車両1が停止してから、所定時間(例えば数分)経過しても自動運転車両1への乗車が検出されない場合、制御用PC11に対して乗車がないことを示す信号を送信してもよい。この場合、制御用PC11は、
自動運転車両1が所謂コンベンショナル車であればエンジンを停止し、自動運転車両1がハイブリッド車両又は電気自動車であればレディオフ状態としてもよい。認識用PC12は、可能であれば、上述したステップS213の処理においてドライバーとして特定されたユーザに対し、例えば電子メール等で通知してもよい。
Note that the recognition PC 12 determines that the board for the automatic driving vehicle 1 is not detected even after a predetermined time (for example, several minutes) has elapsed since the automatic driving vehicle 1 is stopped after the delivery program is executed. A signal indicating that there is no boarding may be transmitted. In this case, the control PC 11
If the automatic driving vehicle 1 is a so-called conventional vehicle, the engine may be stopped, and if the automatic driving vehicle 1 is a hybrid vehicle or an electric vehicle, the ready-off state may be set. If possible, the recognition PC 12 may notify the user specified as the driver in the above-described processing of step S213 by e-mail or the like, for example.

6.制御用PCの動作(3)
上述したステップS237の処理の後、制御用PC11は、搭乗者と、上述したステップS213の処理においてドライバーとして特定されたユーザとが同一であるか否かを判定する(ステップS238)。
6). Operation of control PC (3)
After the process of step S237 described above, the control PC 11 determines whether or not the passenger is the same as the user specified as the driver in the process of step S213 described above (step S238).

制御用PC11は、認識用PC12から同一であることを示す信号を受信した場合、同一であると判定し(ステップS238:Yes)、自動運転車両1の現在の状態を維持して、処理を終了する。   If the control PC 11 receives a signal indicating that it is the same from the recognition PC 12, it determines that they are the same (step S 238: Yes), maintains the current state of the autonomous driving vehicle 1, and ends the process. To do.

他方、制御用PC11は、認識用PC12から同一でないことを示す信号を受信した場合、同一でないと判定し(ステップS238:No)、自動運転車両1が所謂コンベンショナル車であればエンジンを停止し、自動運転車両1がハイブリッド車両又は電気自動車であればレディオフ状態として(ステップS239)、処理を終了する。   On the other hand, if the control PC 11 receives a signal indicating that it is not the same from the recognition PC 12, it determines that they are not the same (step S238: No), and stops the engine if the autonomous driving vehicle 1 is a so-called conventional vehicle. If the autonomous driving vehicle 1 is a hybrid vehicle or an electric vehicle, the ready-off state is set (step S239), and the process is terminated.

(効果)
上述した遠隔操作処理によれば、ユーザが行うジェスチャーが認識され、該認識されたジェスチャーに応じて所定の出庫プログラムが実行される。言い換えれば、ユーザは、所定のジェスチャーを行いさえすれば、自動運転車両1を所定の出庫位置まで移動させることができる。つまり、ユーザは、比較的簡便な方法により自動運転車両1を遠隔操作することができる。
(effect)
According to the remote operation process described above, a gesture performed by the user is recognized, and a predetermined delivery program is executed in accordance with the recognized gesture. In other words, as long as the user performs a predetermined gesture, the user can move the automatic driving vehicle 1 to a predetermined delivery position. That is, the user can remotely operate the autonomous driving vehicle 1 by a relatively simple method.

実施形態に係る「認識用PC12」及び「カメラ13」は、夫々、本発明に係る「記憶部」及び「撮像部」の一例である。実施形態に係る「制御用PC11」及び「認識用PC12」は、本発明に係る「制御部」の一例である。   The “recognition PC 12” and the “camera 13” according to the embodiments are examples of the “storage unit” and the “imaging unit” according to the present invention, respectively. The “control PC 11” and the “recognition PC 12” according to the embodiment are examples of the “control unit” according to the present invention.

上述した実施形態では、出庫プログラムにより自動運転車両1が出庫する例を挙げたが、例えば駐車プログラムにより自動運転車両1が所定の駐車位置に駐車する構成も可能である。   In the above-described embodiment, the example in which the autonomous driving vehicle 1 is delivered by the delivery program is described. However, for example, the automatic driving vehicle 1 may be parked at a predetermined parking position by the parking program.

本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う自動運転車両もまた本発明の技術的範囲に含まれるものである。   The present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification. Is also included in the technical scope of the present invention.

1…自動運転車両、11…制御用パーソナルコンピュータ、12…認識用パーソナルコンピュータ、13、14…カメラ、15…地図データベース、16a〜16d…受信部、17…車速センサ、18…物体検出センサ   DESCRIPTION OF SYMBOLS 1 ... Self-driving vehicle, 11 ... Personal computer for control, 12 ... Personal computer for recognition, 13, 14 ... Camera, 15 ... Map database, 16a-16d ... Reception part, 17 ... Vehicle speed sensor, 18 ... Object detection sensor

Claims (2)

当該車両の周辺の少なくとも一部を撮像する撮像部と、
当該車両のユーザに関するユーザ画像情報と、所定の車両動作を示す一又は複数のジェスチャーに関するジェスチャー画像情報とを予め記憶する記憶部と、
少なくとも前記撮像部により撮像された画像と前記ユーザ画像情報とを照合し、当該車両の周辺に前記ユーザが存在することを条件に、前記撮像部により撮像された画像と前記ジェスチャー画像情報とから、前記ユーザのジェスチャーを特定し、該特定されたジェスチャーにより示される車両動作が実行されるように当該車両を自動制御する制御部と、
を備えることを特徴とする自動運転車両。
An imaging unit that images at least a part of the periphery of the vehicle;
A storage unit that stores in advance user image information related to a user of the vehicle and gesture image information related to one or more gestures indicating a predetermined vehicle operation;
At least the image captured by the imaging unit and the user image information are collated, and on the condition that the user exists around the vehicle, from the image captured by the imaging unit and the gesture image information, A control unit that identifies the user's gesture and automatically controls the vehicle so that the vehicle operation indicated by the identified gesture is executed;
An automatic driving vehicle comprising:
当該車両に対応する電子キーから送信される電波信号を受信する受信部を更に備え、
前記制御部は、前記受信部が前記電波信号を受信した場合に、前記撮像部により撮像された画像と前記ユーザ画像情報とを照合する
ことを特徴とする請求項1に記載の自動運転車両。
A receiver for receiving a radio signal transmitted from an electronic key corresponding to the vehicle;
The self-driving vehicle according to claim 1, wherein the control unit collates an image captured by the imaging unit with the user image information when the reception unit receives the radio signal.
JP2016001728A 2016-01-07 2016-01-07 Automatic drive vehicle Pending JP2017121865A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016001728A JP2017121865A (en) 2016-01-07 2016-01-07 Automatic drive vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016001728A JP2017121865A (en) 2016-01-07 2016-01-07 Automatic drive vehicle

Publications (1)

Publication Number Publication Date
JP2017121865A true JP2017121865A (en) 2017-07-13

Family

ID=59305505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016001728A Pending JP2017121865A (en) 2016-01-07 2016-01-07 Automatic drive vehicle

Country Status (1)

Country Link
JP (1) JP2017121865A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108334258A (en) * 2018-04-11 2018-07-27 刘连波 Automatic Pilot auxiliary device, automatic Pilot householder method and automatic Pilot auxiliary system
JP2018156140A (en) * 2017-03-15 2018-10-04 三菱ロジスネクスト株式会社 Vehicle dispatching system
JP2019164444A (en) * 2018-03-19 2019-09-26 トヨタ自動車株式会社 Parking support device
WO2019188234A1 (en) * 2018-03-28 2019-10-03 日立オートモティブシステムズ株式会社 Vehicle control device and vehicle control system
CN111409646A (en) * 2020-03-09 2020-07-14 上海博泰悦臻电子设备制造有限公司 Automatic driving control method, system, medium and vehicle-mounted terminal based on multi-mode identification
JP2020144711A (en) * 2019-03-07 2020-09-10 本田技研工業株式会社 Vehicle control system and vehicle control method
JP2020149500A (en) * 2019-03-14 2020-09-17 本田技研工業株式会社 Vehicle controller, method for controlling vehicle, and program
JP2020152197A (en) * 2019-03-19 2020-09-24 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
JP2020152196A (en) * 2019-03-19 2020-09-24 本田技研工業株式会社 Vehicle control device, monitoring system, vehicle control method, and program
JP2020157953A (en) * 2019-03-27 2020-10-01 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
CN111752270A (en) * 2019-03-11 2020-10-09 本田技研工业株式会社 Vehicle control system, vehicle control method, and storage medium
CN112199995A (en) * 2020-09-04 2021-01-08 一汽奔腾轿车有限公司 External man-car interaction control system based on face recognition
JPWO2021084618A1 (en) * 2019-10-29 2021-05-06
JP2021079880A (en) * 2019-11-21 2021-05-27 本田技研工業株式会社 Vehicle control device, vehicle, operation method and program of vehicle control device
US20210370867A1 (en) * 2020-05-27 2021-12-02 Honda Motor Co., Ltd. Vehicle control system, server, and vehicle control method
WO2022042699A1 (en) * 2020-08-31 2022-03-03 长城汽车股份有限公司 Vehicle parking method, vehicle parking device, parking system, and vehicle
CN114407828A (en) * 2022-01-29 2022-04-29 上海商汤临港智能科技有限公司 Vehicle control method and device, electronic device and storage medium
US11938971B2 (en) 2021-03-04 2024-03-26 Toyota Jidosha Kabushiki Kaisha Vehicle control device, vehicle control method, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008174192A (en) * 2007-01-22 2008-07-31 Aisin Aw Co Ltd Parking support method and parking support device
JP2009208741A (en) * 2008-03-06 2009-09-17 Aisin Seiki Co Ltd Supporting system
JP2013177128A (en) * 2013-04-10 2013-09-09 Toyota Motor Corp Vehicle remote control system and on-vehicle machine
WO2015174526A1 (en) * 2014-05-16 2015-11-19 エイディシーテクノロジー株式会社 Vehicle control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008174192A (en) * 2007-01-22 2008-07-31 Aisin Aw Co Ltd Parking support method and parking support device
JP2009208741A (en) * 2008-03-06 2009-09-17 Aisin Seiki Co Ltd Supporting system
JP2013177128A (en) * 2013-04-10 2013-09-09 Toyota Motor Corp Vehicle remote control system and on-vehicle machine
WO2015174526A1 (en) * 2014-05-16 2015-11-19 エイディシーテクノロジー株式会社 Vehicle control system

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156140A (en) * 2017-03-15 2018-10-04 三菱ロジスネクスト株式会社 Vehicle dispatching system
JP2019164444A (en) * 2018-03-19 2019-09-26 トヨタ自動車株式会社 Parking support device
WO2019188234A1 (en) * 2018-03-28 2019-10-03 日立オートモティブシステムズ株式会社 Vehicle control device and vehicle control system
JP2019172052A (en) * 2018-03-28 2019-10-10 日立オートモティブシステムズ株式会社 Vehicle control device and vehicle control system
CN111918807A (en) * 2018-03-28 2020-11-10 日立汽车系统株式会社 Vehicle control device and vehicle control system
CN108334258A (en) * 2018-04-11 2018-07-27 刘连波 Automatic Pilot auxiliary device, automatic Pilot householder method and automatic Pilot auxiliary system
CN111665835B (en) * 2019-03-07 2023-10-27 本田技研工业株式会社 Vehicle control system and vehicle control method
JP2020144711A (en) * 2019-03-07 2020-09-10 本田技研工業株式会社 Vehicle control system and vehicle control method
CN111665835A (en) * 2019-03-07 2020-09-15 本田技研工业株式会社 Vehicle control system and vehicle control method
US11475690B2 (en) 2019-03-07 2022-10-18 Honda Motor Co., Ltd. Vehicle control system and vehicle control method
JP7079744B2 (en) 2019-03-07 2022-06-02 本田技研工業株式会社 Vehicle control system and vehicle control method
CN111752270A (en) * 2019-03-11 2020-10-09 本田技研工业株式会社 Vehicle control system, vehicle control method, and storage medium
JP7077255B2 (en) 2019-03-14 2022-05-30 本田技研工業株式会社 Vehicle control devices, vehicle control methods, and programs
JP2020149500A (en) * 2019-03-14 2020-09-17 本田技研工業株式会社 Vehicle controller, method for controlling vehicle, and program
JP2020152196A (en) * 2019-03-19 2020-09-24 本田技研工業株式会社 Vehicle control device, monitoring system, vehicle control method, and program
JP7240218B2 (en) 2019-03-19 2023-03-15 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
JP7123840B2 (en) 2019-03-19 2022-08-23 本田技研工業株式会社 VEHICLE CONTROL DEVICE, MONITORING SYSTEM, VEHICLE CONTROL METHOD, AND PROGRAM
JP2020152197A (en) * 2019-03-19 2020-09-24 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
JP7237684B2 (en) 2019-03-27 2023-03-13 本田技研工業株式会社 VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP2020157953A (en) * 2019-03-27 2020-10-01 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JPWO2021084618A1 (en) * 2019-10-29 2021-05-06
JP7313465B2 (en) 2019-10-29 2023-07-24 三菱電機株式会社 Driving support device and driving support method
JP7000401B2 (en) 2019-11-21 2022-01-19 本田技研工業株式会社 Vehicle control device, vehicle, operation method and program of vehicle control device
JP2021079880A (en) * 2019-11-21 2021-05-27 本田技研工業株式会社 Vehicle control device, vehicle, operation method and program of vehicle control device
CN111409646A (en) * 2020-03-09 2020-07-14 上海博泰悦臻电子设备制造有限公司 Automatic driving control method, system, medium and vehicle-mounted terminal based on multi-mode identification
US20210370867A1 (en) * 2020-05-27 2021-12-02 Honda Motor Co., Ltd. Vehicle control system, server, and vehicle control method
WO2022042699A1 (en) * 2020-08-31 2022-03-03 长城汽车股份有限公司 Vehicle parking method, vehicle parking device, parking system, and vehicle
CN112199995A (en) * 2020-09-04 2021-01-08 一汽奔腾轿车有限公司 External man-car interaction control system based on face recognition
US11938971B2 (en) 2021-03-04 2024-03-26 Toyota Jidosha Kabushiki Kaisha Vehicle control device, vehicle control method, and storage medium
CN114407828A (en) * 2022-01-29 2022-04-29 上海商汤临港智能科技有限公司 Vehicle control method and device, electronic device and storage medium

Similar Documents

Publication Publication Date Title
JP2017121865A (en) Automatic drive vehicle
US11958476B2 (en) Intelligent parking method and apparatus
US11407407B2 (en) Vehicle control device, vehicle control method, and storage medium
US10745050B2 (en) Automated vehicle parking
US10606257B2 (en) Automatic parking system and automatic parking method
WO2017138369A1 (en) Information processing device, information processing method, and program
US12033508B2 (en) Image capturing apparatus of vehicle, server, user terminal apparatus and method for providing parking lot guidance service using them
US20170255881A1 (en) Systems and methods of controlling digital signage for directing parking traffic
CN111976720B (en) Autonomous passenger-replacing parking method, device, equipment and storage medium
WO2015174526A1 (en) Vehicle control system
US10532771B2 (en) Method and apparatus for localizing a motor vehicle
US11325590B2 (en) Autonomous driving device and driving method thereof
RU2741449C1 (en) Automated parking system and server
JP2020066430A (en) Method, apparatus, device and medium for controlling autonomous driving of vehicle
CN111376853B (en) Vehicle control system, vehicle control method, and storage medium
US20200283022A1 (en) Vehicle control system, vehicle control method, and storage medium
US11815887B2 (en) Vehicle control device, vehicle control method, vehicle, information processing device, information processing method, and program
JP2011054116A (en) Parking lot management device and parking lot management method
JP7257737B2 (en) Information processing device, self-position estimation method, and program
US11921503B2 (en) Automatic parking system
JP7540525B2 (en) Parking assistance system and management device
EP3342681A1 (en) Automatic parking system and automatic parking method
US20200230820A1 (en) Information processing apparatus, self-localization method, program, and mobile body
CN114299741B (en) Vehicle control method and device based on auxiliary driving system
JP6679938B2 (en) Self-driving vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191210