JP7013776B2 - Vehicle control device, vehicle, and automatic vehicle allocation method - Google Patents
Vehicle control device, vehicle, and automatic vehicle allocation method Download PDFInfo
- Publication number
- JP7013776B2 JP7013776B2 JP2017189760A JP2017189760A JP7013776B2 JP 7013776 B2 JP7013776 B2 JP 7013776B2 JP 2017189760 A JP2017189760 A JP 2017189760A JP 2017189760 A JP2017189760 A JP 2017189760A JP 7013776 B2 JP7013776 B2 JP 7013776B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- user
- camera
- control unit
- allocation area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000010191 image analysis Methods 0.000 claims description 59
- 230000033001 locomotion Effects 0.000 claims description 13
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Description
本発明は車両制御装置及び自動配車方法に関し、特に車両の自動運転技術に関するものである。 The present invention relates to a vehicle control device and an automatic vehicle allocation method, and particularly to a vehicle automatic driving technique.
近年、カメラやLIDAR等のセンサーを利用して、コンピュータ制御により車両の運転を行う自動運転技術の研究が進んでいる。このような自動運転技術によれば、常時ドライバーが車両を操作する必要がなくなるため、快適で効率的な移動が可能となる。また、車両の自動運転が実用化されると、予め指定された配車地点へ自動運転により車両を配車する自動配車サービスが可能となる。 In recent years, research on automatic driving technology for driving a vehicle by computer control using sensors such as a camera and LIDAR has been progressing. According to such an automatic driving technology, it is not necessary for the driver to operate the vehicle at all times, so that comfortable and efficient movement is possible. Further, when the automatic driving of a vehicle is put into practical use, an automatic vehicle dispatch service that dispatches a vehicle to a predetermined vehicle dispatch point by automatic driving becomes possible.
例えば特許文献1には、利用者からの配車依頼に応じて、配車管理サーバが車両を自動運転により配車する配車管理システムについて記載されている。特に、特許文献1では、予め登録された利用者の画像を用いて利用者を顔認識により認証することで、車両の不正な利用を防止している。
For example,
しかしながら、配車時に利用者が車両の方向を向いていない場合や、利用者が携帯電話の操作中又は通話中で利用者の顔が隠れている場合は、利用者の顔を撮影できないタイミングが生じ得る。このような場合は、利用者を識別することが難しいという課題があった。 However, if the user is not facing the direction of the vehicle at the time of dispatching, or if the user's face is hidden while the user is operating the mobile phone or during a call, there may be a timing when the user's face cannot be photographed. obtain. In such a case, there is a problem that it is difficult to identify the user.
本発明の一観点によれば、配車エリアへ車両を自動運転させる運転制御部と、車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された車両の周辺の人物の画像を解析し、車両の利用者を識別する画像解析部と、を備え、運転制御部は、配車エリア内において車両を減速させ、第1のカメラで利用者を識別できない場合は、第2のカメラで利用者を識別可能な配車エリア内の位置へ車両を移動させる車両制御装置が提供される。 According to one aspect of the present invention, an image of a person around the vehicle taken by a driving control unit that automatically drives the vehicle to the vehicle allocation area and a first camera and a second camera provided in the vehicle is captured. It is equipped with an image analysis unit that analyzes and identifies the user of the vehicle, and the driving control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the second camera is used. A vehicle control device for moving a vehicle to a position within a vehicle allocation area in which a user can be identified is provided.
また、本発明の別観点によれば、配車エリアへ車両を自動運転させる運転制御部と、車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された車両の周辺の人物の画像を解析し、車両の利用者を識別する画像解析部と、を備える車両制御装置において用いられる自動配車方法であって、運転制御部において、配車エリア内において車両を減速させるステップと、第1のカメラで利用者を識別できない場合は、第2のカメラで利用者を識別可能な配車エリア内の位置へ車両を移動させるステップと、を有する自動配車方法が提供される。 Further, according to another viewpoint of the present invention, a driving control unit that automatically drives the vehicle to the vehicle allocation area, and a person around the vehicle photographed by using the first camera and the second camera provided in the vehicle. An automatic vehicle allocation method used in a vehicle control device including an image analysis unit that analyzes an image and identifies a user of the vehicle, wherein the operation control unit decelerates the vehicle in the vehicle allocation area, and the first step. If the user cannot be identified by the camera, a second camera provides an automatic vehicle allocation method having a step of moving the vehicle to a position within the vehicle allocation area where the user can be identified.
本発明によれば、配車時において利用者をより高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。 According to the present invention, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.
以下、本発明の好適な実施形態について図面を用いて説明する。なお、本発明は以下の実施形態に限定されるものではなく、その要旨を逸脱しない範囲において適宜変更可能である。各図において同一、又は相当する機能を有するものは、同一符号を付し、その説明を省略又は簡潔にすることもある。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the following embodiments, and can be appropriately modified without departing from the gist thereof. Those having the same or equivalent functions in each figure are designated by the same reference numerals, and the description thereof may be omitted or simplified.
(第1実施形態)
図1は、第1実施形態に係る車両制御装置10の構成を概略的に示すブロック図である。本実施形態の車両制御装置10は、運転制御部11、画像解析部12、及び記憶部13を備えて構成される。本実施形態の車両制御装置10は、複数のカメラ2a、2bとともに車両1に搭載される。
(First Embodiment)
FIG. 1 is a block diagram schematically showing the configuration of the
運転制御部11は、車両1を駆動する不図示の駆動部を制御し、利用者3によって予め指定された配車地点へ車両1を自動運転させる。本実施形態では、実際に車両1に乗車する利用者と配車予約を行った利用者とが異なっていてもよい。配車時には実際に車両1に乗車する利用者が認証される。
The driving control unit 11 controls a driving unit (not shown) that drives the
自動運転の方法としては、例えばカメラやLIDAR等などのセンサーを利用した公知の技術が用いられ得る。また、配車地点の情報としては、例えばGPS(Global Positioning System)装置により取得される少なくとも緯度及び経度を含む位置情報が用いられ得る。但し、配車地点の情報は、上述の説明には限定されない。一例として、配車地点の情報は、更に高さを含む情報でもよい。 As a method of automatic driving, a known technique using a sensor such as a camera or LIDAR can be used. Further, as the vehicle allocation point information, for example, position information including at least latitude and longitude acquired by a GPS (Global Positioning System) device can be used. However, the information on the vehicle allocation point is not limited to the above description. As an example, the information on the vehicle allocation point may be information including the height.
画像解析部12は、車両1に設けられた複数のカメラ2a、2bを用いて撮影した車両1の周辺の人物の画像を解析し、利用者3を識別する。但し、本実施形態は上述した構成に限定されない。例えば、画像解析部12は、当該撮影された車両1の周辺の画像を解析し、バス停や標識(道路標識や停車位置を示す標識)などの識別すべき識別対象を識別してもよい。
The image analysis unit 12 analyzes images of people around the
画像解析部12及び複数のカメラ2a、2bは、自動運転用の構成をそのまま利用してもよいし、自動運転用とは別に設けてもよい。また、複数のカメラ2a、2bは2台に限定されず、2台以上設けられていればよい。
The image analysis unit 12 and the plurality of
運転制御部11及び画像解析部12は、同一のECU(Electronic Control Unit)等のプロセッサーによって実行されてもよいし、異なるプロセッサーによって実行されてもよい。このような構成によれば、配車時に利用者3を識別することができるので、第3者による車両1の不正な利用を防止することができる。また、運転制御部11は、車両1を利用者3の近くに移動させて停止させ、例えば車両1の利用者3の側のドアを自動的に開けることで、利用者3の利便性を向上させることができる。
The operation control unit 11 and the image analysis unit 12 may be executed by the same processor such as an ECU (Electronic Control Unit), or may be executed by different processors. According to such a configuration, since the
記憶部13は、運転制御部11及び画像解析部12により実行されるプログラムや、プログラムの実行に必要となるデータが保存されるフラッシュメモリやHDD等の記録装置である。記憶部13には、事前に登録された利用者3の画像が記録されている。実際に車両1に乗車する利用者と配車予約を行った利用者とが異なる場合は、実際に乗車する利用者の画像が記憶部13に記憶される。
The
図2~図5は、第1実施形態に係る自動配車方法の一例を示す図である。図2には、一例として、ホテル等のバレーパーキング(Valet Parking)において自動配車サービスを利用している利用者3を示している。
2 to 5 are diagrams showing an example of the automatic vehicle allocation method according to the first embodiment. FIG. 2 shows, as an example, a
運転制御部11は、利用者3によって予め指定された配車地点を含む配車エリアR内へ車両1を自動運転させる。配車エリアRは、例えば、利用者3によって予め指定された配車地点を中心とする一定半径内の範囲として設定される。或いは、図2に示すように配車地点が道路上である場合には、利用者3によって予め指定された配車地点を中心とし、道路に沿った前後一定距離内の範囲として設定される。また或いは、複数のカメラ2a、2bを用いて配車地点の周辺を撮影した映像を解析し、配車地点の周辺の道路状況から配車エリアRを動的に設定してもよい。
The driving control unit 11 automatically drives the
画像解析部12は、配車エリアR内において、複数のカメラ2a、2bを用いて撮影した車両1の周辺の人物の画像と、記憶部13に記録された利用者3の画像とを、例えば顔認識により照合して利用者3を識別する。
In the vehicle allocation area R, the image analysis unit 12 captures an image of a person around the
しかし、図3に示すように、配車時に利用者3がカメラ2aの方向を向いていない場合や、利用者3が携帯電話の操作中又は通話中で利用者3の顔が隠れている場合は、利用者3の顔を撮影できないタイミングが生じ得る。このような場合は、利用者3を識別することが難しい。
However, as shown in FIG. 3, when the
そこで、本実施形態の運転制御部11は、車両1が配車エリアR内に入ると、車両1を減速させる。これにより、カメラ2aを用いて利用者3を撮影できる期間が長くなるため、カメラ2aの方向を向いていない利用者3が、カメラ2aの方向を向く確率が高くなる。或いは、携帯電話を操作中又は通話中の利用者3が、携帯電話の操作又は通話を終了する確率が高くなる。更に、認証の期間が長くなるため、認証失敗時に再認証を行うことが可能となる。この結果、配車時においてカメラ2aを用いて利用者3をより高い確率で識別することが可能となる。
Therefore, the operation control unit 11 of the present embodiment decelerates the
より具体的には、運転制御部11は、車両1の速度を、走行時の第1速度から顔認証を行うための第2速度に制御する。第2速度は第1速度よりも遅い。例えば、第1速度は、道路の法定速度である。第2速度は、予め定められた速度であり、例えば速度20km/h等とすることができる。更に、運転制御部11は、カメラ2aで利用者3を識別できない場合には、第2速度よりも更に遅い第3速度により運転を行う。例えば、第3速度は、徐行(5~10km/h)である。
More specifically, the driving control unit 11 controls the speed of the
また、本実施形態の運転制御部11は、複数のカメラ2a、2bの第1のカメラで利用者3を識別できない場合は、複数のカメラ2a、2bの第2のカメラで利用者3を識別可能な配車エリアR内の位置へ車両1を移動させる。例えば図4では、運転制御部11は、第1のカメラであるカメラ2aで利用者3を識別できなかったため、第2のカメラである別のカメラ2bを用いて利用者3を正面から撮影できる位置へ車両1を移動させている。この結果、カメラ2bを用いて利用者3を識別することが可能となる。
Further, when the operation control unit 11 of the present embodiment cannot identify the
複数のカメラ2a、2bを用いて利用者3を識別する確率を向上させるためには、例えば図4に示すように、1つのカメラ2aを車両1の側面に斜め前方を向けて設置し、別のカメラ2bを車両1の側面に斜め後方を向いて設置するとよい。これにより、複数のカメラ2a、2bがカバーする視野角が広くなるとともに、利用者3を長い期間撮影することができるため、配車時において利用者3をより高い確率で識別することが可能となる。
In order to improve the probability of identifying the
また、利用者3を識別するためのカメラを第1のカメラから第2のカメラへ切り替える際に、運転制御部11は、車両1を更に減速させてもよい。即ち、運転制御部11は、車両1が配車エリアR内に入った際に減速した第2速度よりも遅い速度(第3速度)により車両1を自動運転させる。
Further, when switching the camera for identifying the
また、本実施形態の画像解析部12は、車両1の周辺の人物が向いている方向、又は車両1の周辺の人物の動作、を補助情報として生成する。そして、生成した補助情報を利用して利用者3を識別する。例えば図5では、車両1の周辺の人物のうち、車両1の方向を向いている人物、又は手を挙げている人物を利用者3として識別している。これにより、配車時において利用者3を更に高い確率で識別することが可能となる。また、画像に利用者3を含む複数の人物が含まれている場合には、より少ない処理によって利用者3を識別することが可能となる。
Further, the image analysis unit 12 of the present embodiment generates auxiliary information of the direction in which the person around the
なお、本実施形態は上述した構成に限定されない。例えば、時系列に連続した人物の動作を示す動作情報を、予め記憶部13に記憶しておき、画像解析部12は、記憶部13に記憶された動作情報によって特定される動作を行った人物を利用者3として識別してもよい。この場合、動作情報は、例えば、手を振る、手招きをする等の人物における一連の動作を識別可能な情報を含むことができる。
The present embodiment is not limited to the above-described configuration. For example, motion information indicating continuous motions of a person in time series is stored in a
利用者3を識別することができた場合は、運転制御部11は、車両1を利用者3の近くに移動させて停止させる。この際、利用者3を識別した後に、記憶部13から利用者3の画像を含む認証情報を削除するようにしてもよい。これにより、利用者3の認証情報が誤って第3者に利用されることを避けることができる。一方、利用者3を識別することができなかった場合は、運転制御部11は、車両1を配車エリアR内に停止させる。
If the
運転制御部11は、車両1を利用者3の近くに移動させて停止させた後、車両1の利用者3の側のドアを自動的に開ける。この場合に、一例として、運転制御部11は、画像解析部12により解析結果を利用して利用者3の近傍、且つ利用者3が安全に乗降可能な位置を特定するとともに、その位置に移動させて停止させてもよい。例えば、停車位置が横断歩道や交差点、或いは道路交通法にて車両1の停車が認められていない位置である場合には、運転制御部11は、利用者3が安全に乗降可能な位置でないと判断してもよい。これにより、利用者3の利便性を向上させることができる。
The operation control unit 11 automatically opens the door on the side of the
その後、利用者3は、配車された車両1を利用して目的地まで移動する。ここで、利用者3の操作により、車両1の自動運転の有効/無効を切替え可能としてもよい。これにより、利用者3は、自分で車両1を運転するか、或いは運転を運転制御部11に任せるかを選択することが可能となる。
After that, the
図6は、第1実施形態に係る自動配車方法を示すフローチャートである。 FIG. 6 is a flowchart showing the automatic vehicle allocation method according to the first embodiment.
ステップS101において、配車管理センターは、利用者3から配車の依頼を受けると、事前に登録された利用者3の画像を車両1の記憶部13に記録する。ステップS102において、運転制御部11は、利用者3によって予め指定された配車地点へ車両1を自動運転させる。
In step S101, when the vehicle allocation management center receives a vehicle allocation request from the
ステップS103において、運転制御部11は、利用者3によって予め指定された配車地点を含む所定の配車エリアR内に、車両1が入ったか否かを判定する。車両1が配車エリアR内の場合(YES)は、ステップS104に進む。一方、車両1が配車エリアR外の場合(NO)は、車両1が配車エリアR内に入るまでステップS102~S103を繰り返す。
In step S103, the operation control unit 11 determines whether or not the
ステップS104において、画像解析部12は、車両1の周辺を撮影した映像を解析して、車両1を安全に減速することが可能か否かを判定する。車両1を安全に減速することが可能と判定した場合(YES)は、ステップS105に進む。一方、車両1を安全に減速することが困難であると判定した場合(NO)は、ステップS102~S104を繰り返す。
In step S104, the image analysis unit 12 analyzes the image taken around the
ステップS105において、運転制御部11は、車両1を減速させる。そして、車両1の周辺の人物を撮影可能な位置へ車両1を移動させる。ステップS106において、画像解析部12は、配車エリアR内において、車両1に設けられた複数のカメラ2a、2bを用いて撮影した車両1の周辺の人物の画像を解析して利用者3を識別する。
In step S105, the driving control unit 11 decelerates the
ステップS107において、画像解析部12は、利用者3を識別できたか否かを判定する。利用者3を識別できた場合(YES)は、ステップS108へ進む。一方、利用者3を識別できなかった場合(NO)は、利用者3が識別できるまでステップS106~S107を繰り返す。或いは、どうしても利用者3を識別することができない場合は、配車エリアR内に車両1を停止させる。
In step S107, the image analysis unit 12 determines whether or not the
ステップS108において、運転制御部11は、認証した利用者3の近くに車両1を移動させて停車させる。そしてステップS109において、運転制御部11は、車両1の利用者3の側のドアを自動的に開ける。
In step S108, the operation control unit 11 moves the
以上のように、本実施形態の車両制御装置は、配車エリアへ車両を自動運転させる運転制御部と、車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された車両の周辺の人物の画像を解析し、車両の利用者を識別する画像解析部と、を備えている。そして、運転制御部は、配車エリア内において車両を減速させ、複数のカメラを用いて利用者を識別可能な配車エリア内の位置へ車両を移動させる。このような構成によれば、配車時において利用者をより高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。 As described above, the vehicle control device of the present embodiment has a driving control unit that automatically drives the vehicle to the vehicle allocation area, and the periphery of the vehicle photographed by using the first camera and the second camera provided in the vehicle. It is equipped with an image analysis unit that analyzes the image of the person in question and identifies the user of the vehicle. Then, the operation control unit decelerates the vehicle in the vehicle allocation area and moves the vehicle to a position in the vehicle allocation area where the user can be identified by using a plurality of cameras. According to such a configuration, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.
(第2実施形態)
図7は、第2実施形態に係る自動配車方法を示すフローチャートである。図7に示すフローチャートは、図6に示したフローチャートのステップS106をより具体化し、ステップS701~S704として示したものである。その他のステップについては図6と同じである。以下、図6と異なるステップについてのみ説明を行い、図6と同じステップについては説明を省略する。
(Second Embodiment)
FIG. 7 is a flowchart showing the automatic vehicle allocation method according to the second embodiment. The flowchart shown in FIG. 7 is a more specific version of step S106 of the flowchart shown in FIG. 6 and is shown as steps S701 to S704. Other steps are the same as in FIG. Hereinafter, only the steps different from those in FIG. 6 will be described, and the description of the same steps as in FIG. 6 will be omitted.
ステップS701において、画像解析部12は、第1のカメラにより撮影された車両1の周辺の人物の画像を解析して、車両1の利用者3を識別する。ステップS702において、画像解析部12は、第1のカメラを用いて利用者3を識別することができたか否かを判定する。第1のカメラを用いて利用者3を識別することができた場合(YES)は、図7のフローチャートを終了し、例えば図6に示したフローチャートのように、運転制御部11は、利用者3の近くに車両1を移動させて停車させる。
In step S701, the image analysis unit 12 analyzes an image of a person around the
一方、第1のカメラを用いて利用者3を識別することができなかった場合(NO)は、運転制御部11は、ステップS703において、第2のカメラを用いて利用者3を識別することが可能な位置へ車両1を移動させる。そして、ステップS704において、画像解析部12は、第2のカメラを用いて撮影された車両1の周辺の人物の画像を解析して、車両1の利用者3を識別する。以降の処理は、例えば図6に示したフローチャートのステップS107以降と同様である。
On the other hand, when the
以上のように、本実施形態の車両制御装置は、配車エリアへ車両を自動運転させる運転制御部と、車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された車両の周辺の人物の画像を解析し、車両の利用者を識別する画像解析部と、を備えている。そして、運転制御部は、配車エリア内において車両を減速させ、第1のカメラで利用者を識別できない場合は、第2のカメラで利用者を識別可能な配車エリア内の位置へ車両を移動させる。このような構成によれば、配車時において利用者を更に高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。 As described above, the vehicle control device of the present embodiment has a driving control unit that automatically drives the vehicle to the vehicle allocation area, and the periphery of the vehicle photographed by using the first camera and the second camera provided in the vehicle. It is equipped with an image analysis unit that analyzes the image of the person in question and identifies the user of the vehicle. Then, the driving control unit decelerates the vehicle in the vehicle allocation area, and if the first camera cannot identify the user, the operation control unit moves the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera. .. According to such a configuration, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.
(第3実施形態)
図8は、第3実施形態に係る自動配車方法を示すフローチャートである。図8に示すフローチャートは、図7に示したフローチャートに加えて更にステップS801、S802を有している。以下、図7と異なるステップについてのみ説明を行い、図7と同じステップについては説明を省略する。
(Third Embodiment)
FIG. 8 is a flowchart showing the automatic vehicle allocation method according to the third embodiment. The flowchart shown in FIG. 8 further includes steps S801 and S802 in addition to the flowchart shown in FIG. 7. Hereinafter, only the steps different from those in FIG. 7 will be described, and the same steps as in FIG. 7 will be omitted.
ステップS801において、画像解析部12は、第1のカメラを用いて撮影された車両1の周辺の人物の画像を解析して、車両1の周辺の人物が向いている方向、又は車両1の周辺の人物の動作、を補助情報として生成する。そして、生成した補助情報を利用して利用者3を識別する。
In step S801, the image analysis unit 12 analyzes an image of a person in the vicinity of the
また、ステップS802において、画像解析部12は、第2のカメラを用いて撮影された車両1の周辺の人物の画像を解析して、車両1の周辺の人物が向いている方向、又は車両1の周辺の人物の動作、を補助情報として生成する。そして、生成した補助情報を利用して利用者3を識別する。
Further, in step S802, the image analysis unit 12 analyzes an image of a person in the vicinity of the
以上のように、本実施形態の画像解析部は、車両の周辺の人物が向いている方向、又は車両の周辺の人物の動作、を補助情報として生成し、補助情報を利用して利用者を識別する。例えば、画像解析部は、車両の方向を向いている人物、又は手を挙げている人物を利用者として識別する。このような構成によれば、配車時において利用者を更に高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。
(第4実施形態)
図9は、第4実施形態に係る自動配車方法を示すフローチャートである。図9に示すフローチャートは、図7に示したフローチャートに加えて更にステップS901を有している。以下、図7と異なるステップについてのみ説明を行い、図7と同じステップについては説明を省略する。
As described above, the image analysis unit of the present embodiment generates auxiliary information of the direction in which the person around the vehicle is facing or the movement of the person around the vehicle, and uses the auxiliary information to generate the user. Identify. For example, the image analysis unit identifies a person facing the direction of the vehicle or a person raising his / her hand as a user. According to such a configuration, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.
(Fourth Embodiment)
FIG. 9 is a flowchart showing the automatic vehicle allocation method according to the fourth embodiment. The flowchart shown in FIG. 9 further includes step S901 in addition to the flowchart shown in FIG. 7. Hereinafter, only the steps different from those in FIG. 7 will be described, and the same steps as in FIG. 7 will be omitted.
ステップS901において、画像解析部12は、複数のカメラ2a、2bを用いて配車地点の周辺を撮影した映像を解析し、配車地点の周辺の道路状況から配車エリアRを動的に設定する。この際、画像解析部12は、例えば、停車位置が横断歩道や交差点、或いは道路交通法にて車両1の停車が認められていない位置であるか否かを考慮して、配車エリアRを設定する。
In step S901, the image analysis unit 12 analyzes the images taken around the vehicle allocation point by using the plurality of
以上のように、本実施形態の画像解析部は、第1のカメラ及び第2のカメラを用いて配車エリアの周辺を撮影した映像を解析し、配車エリアの周辺の道路状況から配車エリアを設定する。このような構成によれば、利用者の利便性を更に向上させることができる。
(第5実施形態)
図10は、第5実施形態に係る自動配車方法を示すフローチャートである。図10に示すフローチャートは、図7に示したフローチャートに加えて更にステップS1001~S1003を有している。以下、図7と異なるステップについてのみ説明を行い、図7と同じステップについては説明を省略する。
As described above, the image analysis unit of the present embodiment analyzes the images taken around the vehicle allocation area using the first camera and the second camera, and sets the vehicle allocation area from the road conditions around the vehicle allocation area. do. According to such a configuration, the convenience of the user can be further improved.
(Fifth Embodiment)
FIG. 10 is a flowchart showing the automatic vehicle allocation method according to the fifth embodiment. The flowchart shown in FIG. 10 further includes steps S1001 to S1003 in addition to the flowchart shown in FIG. 7. Hereinafter, only the steps different from those in FIG. 7 will be described, and the same steps as in FIG. 7 will be omitted.
ステップS1001において、画像解析部12は、利用者3を識別することができたか否かを判定する。第1のカメラ及び第2のカメラのいずれを用いても利用者3を識別することができなかった場合(NO)は、ステップS1003に進む。そして、運転制御部11は、配車エリアR内に車両1を停止させる。
In step S1001, the image analysis unit 12 determines whether or not the
一方、第1のカメラ又は第2のカメラのいずれかを用いて利用者3を識別することができた場合(YES)は、ステップS1002に進む。そして、運転制御部11は、認証した利用者3の近くに車両1を移動させて停車させる。そして、例えば図6に示したフローチャートのように、車両1の利用者3の側のドアを自動的に開ける。
On the other hand, if the
以上のように、本実施形態の運転制御部は、利用者を識別することができた場合は、車両を利用者の近くに移動させて停止させ、利用者を識別することができなかった場合は、車両を配車エリア内に停止させる。このような構成によれば、利用者の利便性を更に向上させることができる。 As described above, when the operation control unit of the present embodiment can identify the user, the vehicle is moved to the vicinity of the user and stopped, and the user cannot be identified. Stops the vehicle in the dispatch area. According to such a configuration, the convenience of the user can be further improved.
(その他の実施形態)
上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(Other embodiments)
The above-mentioned embodiments are merely examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
例えば、図1に示した画像解析部12の代わりに、車両1外部の画像解析部と通信して利用者3を識別する利用者識別部を備える構成とすることも可能である。この場合、画像解析部は、例えば配車管理センター等に設けられる。
For example, instead of the image analysis unit 12 shown in FIG. 1, a user identification unit that communicates with an image analysis unit outside the
車両1の利用者識別部は、車両1に設けられた複数のカメラ2a、2bを用いて撮影した車両1の周辺の人物の画像を車両1の外部の画像解析部へ送信する。画像解析部は、車両1の利用者識別部から受信した車両1の周辺の人物の画像を解析して利用者3を識別し、その結果を車両1の利用者識別部へ送信する。利用者識別部は、画像解析部から受信した結果に基づいて利用者3を識別する。
The user identification unit of the
このような構成によっても、配車時において利用者をより高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。 With such a configuration, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or recording medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:
(付記1)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備え、
前記運転制御部は、前記配車エリア内において前記車両を減速させ、前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を移動させる
車両制御装置。
(Appendix 1)
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
Equipped with
The operation control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the operation control unit is in the vehicle allocation area in which the user can be identified by the second camera. A vehicle control device that moves the vehicle to a position.
(付記2)
前記画像解析部は、前記車両の周辺の人物が向いている方向、又は前記車両の周辺の人物の動作、を補助情報として生成し、前記補助情報を利用して前記利用者を識別する
付記1に記載の車両制御装置。
(Appendix 2)
The image analysis unit generates auxiliary information of the direction in which a person around the vehicle is facing or the movement of a person around the vehicle, and uses the auxiliary information to identify the user. The vehicle control device described in.
(付記3)
前記画像解析部は、前記車両の方向を向いている人物、又は手を挙げている人物を前記利用者として識別する
付記2に記載の車両制御装置。
(Appendix 3)
The vehicle control device according to Appendix 2, wherein the image analysis unit identifies a person facing the direction of the vehicle or a person raising his / her hand as the user.
(付記4)
事前に登録された前記利用者の画像を記録する記憶部を更に備え、
前記画像解析部は、前記第1のカメラ及び前記第2のカメラを用いて撮影した前記車両の周辺の人物の画像と、前記記憶部に記録された前記利用者の画像とを照合して前記利用者を識別する
付記1から3のいずれか1項に記載の車両制御装置。
(Appendix 4)
Further equipped with a storage unit for recording an image of the user registered in advance,
The image analysis unit collates the image of a person around the vehicle taken by using the first camera and the second camera with the image of the user recorded in the storage unit. The vehicle control device according to any one of
(付記5)
前記画像解析部は、前記利用者を顔認識により識別する
付記4に記載の車両制御装置。
(Appendix 5)
The vehicle control device according to Appendix 4, wherein the image analysis unit identifies the user by face recognition.
(付記6)
前記画像解析部は、前記利用者を識別した後に、前記利用者の画像を前記記憶部から削除する
付記4又は5に記載の車両制御装置。
(Appendix 6)
The vehicle control device according to Appendix 4 or 5, wherein the image analysis unit deletes the image of the user from the storage unit after identifying the user.
(付記7)
前記画像解析部は、前記第1のカメラ及び前記第2のカメラを用いて前記配車エリアの周辺を撮影した映像を解析し、前記配車エリアの周辺の道路状況から前記配車エリアを設定する
付記1から6のいずれか1項に記載の車両制御装置。
(Appendix 7)
The image analysis unit analyzes images taken around the vehicle allocation area by using the first camera and the second camera, and sets the vehicle allocation area from the road conditions around the vehicle allocation area. 6. The vehicle control device according to any one of 6.
(付記8)
前記運転制御部は、前記利用者を識別することができた場合は、前記車両を前記利用者の近くに移動させて停止させ、前記利用者を識別することができなかった場合は、前記車両を前記配車エリア内に停止させる
付記1から7のいずれか1項に記載の車両制御装置。
(Appendix 8)
If the operation control unit can identify the user, the vehicle is moved near the user and stopped, and if the user cannot be identified, the vehicle is stopped. The vehicle control device according to any one of
(付記9)
前記運転制御部は、前記利用者を識別することができた場合は、前記車両を前記利用者の近くに移動させて停止させ、前記車両の前記利用者の側のドアを自動的に開ける
付記1から8のいずれか1項に記載の車両制御装置。
(Appendix 9)
If the operation control unit can identify the user, the operation control unit moves the vehicle closer to the user, stops the vehicle, and automatically opens the door on the user side of the vehicle. The vehicle control device according to any one of 1 to 8.
(付記10)
付記1から10のいずれか1項に記載の車両制御装置と、前記第1のカメラ及び前記第2のカメラとを備える
車両。
(Appendix 10)
A vehicle including the vehicle control device according to any one of
(付記11)
前記第1のカメラ及び前記第2のカメラの一方は、前記車両の側面に斜め前方を向いて設置され、前記第1のカメラ及び前記第2のカメラの他方は、前記車両の前記側面に斜め後方を向いて設置される
付記10に記載の車両。
(Appendix 11)
One of the first camera and the second camera is installed diagonally forward on the side surface of the vehicle, and the other of the first camera and the second camera is obliquely on the side surface of the vehicle. The vehicle according to
(付記12)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を前記車両の外部の画像解析部へ送信し、前記画像解析部によって解析された結果に基づいて前記車両の利用者を識別する利用者識別部と、
を備え、
前記運転制御部は、前記配車エリア内において前記車両を減速させ、前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を移動させる
車両制御装置。
(Appendix 12)
A driving control unit that automatically drives the vehicle to the dispatch area,
Images of people around the vehicle taken by using the first camera and the second camera provided in the vehicle were transmitted to an image analysis unit outside the vehicle and analyzed by the image analysis unit. A user identification unit that identifies the user of the vehicle based on the result,
Equipped with
The operation control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the operation control unit is in the vehicle allocation area in which the user can be identified by the second camera. A vehicle control device that moves the vehicle to a position.
(付記13)
付記12に記載の車両制御装置と、前記画像解析部とを備える
自動配車システム。
(Appendix 13)
An automatic vehicle allocation system including the vehicle control device according to Appendix 12 and the image analysis unit.
(付記14)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備え、
前記運転制御部は、前記配車エリアに入った場合に、前記車両を減速させ、
前記画像解析部は、前記配車エリアに入った場合に、前記第1のカメラで撮像した画像により前記利用者の識別を開始し、前記第1のカメラで撮像した画像により前記利用者を識別できない場合は、前記第2のカメラで撮像した画像により前記利用者の識別を開始する
車両制御装置。
(Appendix 14)
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
Equipped with
The operation control unit decelerates the vehicle when it enters the vehicle allocation area.
When entering the vehicle allocation area, the image analysis unit starts identifying the user from the image captured by the first camera, and cannot identify the user from the image captured by the first camera. In that case, the vehicle control device that starts the identification of the user by the image captured by the second camera.
(付記15)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備える車両制御装置において用いられる自動配車方法であって、前記運転制御部において、
前記配車エリア内において前記車両を減速させるステップと、
前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を移動させるステップと、
を有する自動配車方法。
(Appendix 15)
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
It is an automatic vehicle allocation method used in a vehicle control device comprising the above, and in the operation control unit.
A step of decelerating the vehicle in the vehicle allocation area,
When the user cannot be identified by the first camera, the step of moving the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera, and
Automatic vehicle dispatch method with.
(付記16)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備える車両制御装置において、コンピュータを、
前記配車エリア内において前記車両を減速させる手段と、
前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を移動させる手段と、
して機能させるプログラム。
(Appendix 16)
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
In a vehicle control device equipped with a computer,
Means for decelerating the vehicle in the vehicle allocation area and
When the user cannot be identified by the first camera, the means for moving the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera, and
A program that makes it work.
(付記17)
付記16に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
(Appendix 17)
A computer-readable recording medium on which the program described in Appendix 16 is recorded.
1 :車両
2a、2b:カメラ
3 :利用者
10 :車両制御装置
11 :運転制御部
12 :画像解析部
13 :記憶部
R :配車エリア
1:
Claims (10)
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備え、
前記運転制御部は、前記配車エリア内において前記車両を減速させ、前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させる
車両制御装置。 A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
Equipped with
The operation control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the operation control unit is in the vehicle allocation area in which the user can be identified by the second camera. A vehicle control device that moves the vehicle to a position within the vehicle allocation area .
請求項1に記載の車両制御装置。 The image analysis unit generates auxiliary information of the direction in which a person around the vehicle is facing or the movement of a person around the vehicle, and uses the auxiliary information to identify the user. The vehicle control device according to 1.
請求項2に記載の車両制御装置。 The vehicle control device according to claim 2, wherein the image analysis unit identifies a person facing the direction of the vehicle or a person raising his / her hand as the user.
請求項1から3のいずれか1項に記載の車両制御装置。 The image analysis unit analyzes images taken around the vehicle allocation point by using the first camera and the second camera, and sets the vehicle allocation area from the road conditions around the vehicle allocation point . The vehicle control device according to any one of 1 to 3.
請求項1から4のいずれか1項に記載の車両制御装置。 When the operation control unit can identify the user, the vehicle is moved near the user and stopped, and when the user cannot be identified, the vehicle is moved. The vehicle control device according to any one of claims 1 to 4, wherein the vehicle is stopped in the vehicle allocation area.
車両。 A vehicle including the vehicle control device according to any one of claims 1 to 5, the first camera, and the second camera.
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を前記車両の外部の画像解析部へ送信し、前記画像解析部によって解析された結果に基づいて前記車両の利用者を識別する利用者識別部と、
を備え、
前記運転制御部は、前記配車エリア内において前記車両を減速させ、前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させる
車両制御装置。 A driving control unit that automatically drives the vehicle to the dispatch area,
Images of people around the vehicle taken by using the first camera and the second camera provided in the vehicle were transmitted to an image analysis unit outside the vehicle and analyzed by the image analysis unit. A user identification unit that identifies the user of the vehicle based on the result,
Equipped with
The operation control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the operation control unit is in the vehicle allocation area in which the user can be identified by the second camera. A vehicle control device that moves the vehicle to a position within the vehicle allocation area .
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備え、
前記運転制御部は、前記配車エリアに入った場合に、前記車両を減速させ、
前記画像解析部は、前記配車エリアに入った場合に、前記第1のカメラで撮像した画像により前記利用者の識別を開始し、前記第1のカメラで撮像した画像により前記利用者を識別できない場合は、前記第2のカメラで撮像した画像により前記利用者の識別を開始し、
前記運転制御部は、前記第1のカメラで撮像した画像により前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させる
車両制御装置。 A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
Equipped with
The operation control unit decelerates the vehicle when it enters the vehicle allocation area.
When entering the vehicle allocation area, the image analysis unit starts identifying the user from the image captured by the first camera, and cannot identify the user from the image captured by the first camera. In that case, the identification of the user is started by the image captured by the second camera.
When the operation control unit cannot identify the user from the image captured by the first camera, the operation control unit dispatches the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera. A vehicle control device that moves within an area .
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備える車両制御装置において用いられる自動配車方法であって、前記運転制御部において、
前記配車エリア内において前記車両を減速させるステップと、
前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させるステップと、
を有する自動配車方法。 A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
It is an automatic vehicle allocation method used in a vehicle control device comprising the above, and in the operation control unit.
A step of decelerating the vehicle in the vehicle allocation area,
When the user cannot be identified by the first camera, the step of moving the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera, and a step of moving the vehicle in the vehicle allocation area .
Automatic vehicle dispatch method with.
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備える車両制御装置において、コンピュータを、
前記配車エリア内において前記車両を減速させる手段と、
前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させる手段と、
して機能させるプログラム。 A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
In a vehicle control device equipped with a computer,
Means for decelerating the vehicle in the vehicle allocation area and
When the user cannot be identified by the first camera, a means for moving the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera, and a means for moving the vehicle in the vehicle allocation area .
A program that makes it work.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017189760A JP7013776B2 (en) | 2017-09-29 | 2017-09-29 | Vehicle control device, vehicle, and automatic vehicle allocation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017189760A JP7013776B2 (en) | 2017-09-29 | 2017-09-29 | Vehicle control device, vehicle, and automatic vehicle allocation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019067012A JP2019067012A (en) | 2019-04-25 |
JP7013776B2 true JP7013776B2 (en) | 2022-02-01 |
Family
ID=66339735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017189760A Active JP7013776B2 (en) | 2017-09-29 | 2017-09-29 | Vehicle control device, vehicle, and automatic vehicle allocation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7013776B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021171475A1 (en) * | 2020-02-27 | 2021-09-02 | 三菱電機株式会社 | Joining assistance device, joining assistance system, and joining assistance method |
JP7294231B2 (en) * | 2020-05-07 | 2023-06-20 | トヨタ自動車株式会社 | AUTOMATIC VEHICLE CONTROL DEVICE, VEHICLE ALLOCATION SYSTEM, AND VEHICLE ALLOCATION METHOD |
JP7438892B2 (en) * | 2020-08-20 | 2024-02-27 | 本田技研工業株式会社 | Information processing device, information processing method, and program |
WO2023187890A1 (en) * | 2022-03-28 | 2023-10-05 | 本田技研工業株式会社 | Control device for mobile object, control method for mobile object, mobile object, information processing method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020486A (en) | 2008-07-09 | 2010-01-28 | Autonetworks Technologies Ltd | Road marking recognition system |
JP2012014482A (en) | 2010-07-01 | 2012-01-19 | Panasonic Corp | Determination device for taxi |
JP2015191264A (en) | 2014-03-27 | 2015-11-02 | 株式会社ニコン | Autonomous driving vehicle |
JP2015191641A (en) | 2014-03-31 | 2015-11-02 | Necエンベデッドプロダクツ株式会社 | Monitoring device, monitoring system, monitoring method, and program |
WO2017165545A2 (en) | 2016-03-24 | 2017-09-28 | Waymo Llc | Arranging passenger pickups for autonomous vehicles |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9631933B1 (en) * | 2014-05-23 | 2017-04-25 | Google Inc. | Specifying unavailable locations for autonomous vehicles |
-
2017
- 2017-09-29 JP JP2017189760A patent/JP7013776B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020486A (en) | 2008-07-09 | 2010-01-28 | Autonetworks Technologies Ltd | Road marking recognition system |
JP2012014482A (en) | 2010-07-01 | 2012-01-19 | Panasonic Corp | Determination device for taxi |
JP2015191264A (en) | 2014-03-27 | 2015-11-02 | 株式会社ニコン | Autonomous driving vehicle |
JP2015191641A (en) | 2014-03-31 | 2015-11-02 | Necエンベデッドプロダクツ株式会社 | Monitoring device, monitoring system, monitoring method, and program |
WO2017165545A2 (en) | 2016-03-24 | 2017-09-28 | Waymo Llc | Arranging passenger pickups for autonomous vehicles |
Also Published As
Publication number | Publication date |
---|---|
JP2019067012A (en) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7013776B2 (en) | Vehicle control device, vehicle, and automatic vehicle allocation method | |
US10853629B2 (en) | Method for identifying a user entering an autonomous vehicle | |
CN109690609B (en) | Passenger assist device, method, and program | |
US20220017046A1 (en) | Vehicle dispatch management system and vehicle dispatch management server | |
JP6361220B2 (en) | Autonomous vehicle | |
JP6962280B2 (en) | Vehicle control method, vehicle control system, and vehicle control device | |
JP6917827B2 (en) | Vehicle control devices, vehicles, vehicle control methods and programs | |
US11262204B2 (en) | Vehicle movement authorization | |
KR20180108854A (en) | Passenger pickup arrangement of autonomous vehicles | |
WO2019034040A1 (en) | Service execution method and device | |
CN110809791A (en) | Vehicle system, autonomous vehicle, vehicle control method, and program | |
JP6607062B2 (en) | Remote control system | |
JP7120163B2 (en) | parking controller | |
CN110103878A (en) | Method and apparatus for controlling unmanned vehicle | |
CN111347985A (en) | Automatic driving taxi | |
US20190369636A1 (en) | Control system, control method, and non-transitory storage medium | |
JP2018150757A (en) | Parking management system, self-propelled parking prevention device, and management server | |
JP7172464B2 (en) | Vehicles and vehicle operation methods | |
JP2019091216A (en) | Route setting device and route setting method | |
US11802533B2 (en) | Safely initiating an autonomous vehicle ride | |
KR102534326B1 (en) | System for controlling managing driving apparatus and operating method thereof | |
JP7071847B2 (en) | Systems, methods, and programs for controlling self-driving vehicles | |
CN115285809A (en) | Elevator control method based on automobile position, computer device and storage medium | |
CN111311919B (en) | Server, in-vehicle device, nonvolatile storage medium, information providing system, method of providing information, and vehicle | |
JP7225699B2 (en) | Vehicle control device and vehicle operation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180413 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220103 |