JP7013776B2 - Vehicle control device, vehicle, and automatic vehicle allocation method - Google Patents

Vehicle control device, vehicle, and automatic vehicle allocation method Download PDF

Info

Publication number
JP7013776B2
JP7013776B2 JP2017189760A JP2017189760A JP7013776B2 JP 7013776 B2 JP7013776 B2 JP 7013776B2 JP 2017189760 A JP2017189760 A JP 2017189760A JP 2017189760 A JP2017189760 A JP 2017189760A JP 7013776 B2 JP7013776 B2 JP 7013776B2
Authority
JP
Japan
Prior art keywords
vehicle
user
camera
control unit
allocation area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017189760A
Other languages
Japanese (ja)
Other versions
JP2019067012A (en
Inventor
淳 中山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017189760A priority Critical patent/JP7013776B2/en
Publication of JP2019067012A publication Critical patent/JP2019067012A/en
Application granted granted Critical
Publication of JP7013776B2 publication Critical patent/JP7013776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は車両制御装置及び自動配車方法に関し、特に車両の自動運転技術に関するものである。 The present invention relates to a vehicle control device and an automatic vehicle allocation method, and particularly to a vehicle automatic driving technique.

近年、カメラやLIDAR等のセンサーを利用して、コンピュータ制御により車両の運転を行う自動運転技術の研究が進んでいる。このような自動運転技術によれば、常時ドライバーが車両を操作する必要がなくなるため、快適で効率的な移動が可能となる。また、車両の自動運転が実用化されると、予め指定された配車地点へ自動運転により車両を配車する自動配車サービスが可能となる。 In recent years, research on automatic driving technology for driving a vehicle by computer control using sensors such as a camera and LIDAR has been progressing. According to such an automatic driving technology, it is not necessary for the driver to operate the vehicle at all times, so that comfortable and efficient movement is possible. Further, when the automatic driving of a vehicle is put into practical use, an automatic vehicle dispatch service that dispatches a vehicle to a predetermined vehicle dispatch point by automatic driving becomes possible.

例えば特許文献1には、利用者からの配車依頼に応じて、配車管理サーバが車両を自動運転により配車する配車管理システムについて記載されている。特に、特許文献1では、予め登録された利用者の画像を用いて利用者を顔認識により認証することで、車両の不正な利用を防止している。 For example, Patent Document 1 describes a vehicle allocation management system in which a vehicle allocation management server allocates a vehicle by automatic driving in response to a vehicle allocation request from a user. In particular, in Patent Document 1, unauthorized use of the vehicle is prevented by authenticating the user by face recognition using the image of the user registered in advance.

特開2016-115364号公報Japanese Unexamined Patent Publication No. 2016-115364

しかしながら、配車時に利用者が車両の方向を向いていない場合や、利用者が携帯電話の操作中又は通話中で利用者の顔が隠れている場合は、利用者の顔を撮影できないタイミングが生じ得る。このような場合は、利用者を識別することが難しいという課題があった。 However, if the user is not facing the direction of the vehicle at the time of dispatching, or if the user's face is hidden while the user is operating the mobile phone or during a call, there may be a timing when the user's face cannot be photographed. obtain. In such a case, there is a problem that it is difficult to identify the user.

本発明の一観点によれば、配車エリアへ車両を自動運転させる運転制御部と、車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された車両の周辺の人物の画像を解析し、車両の利用者を識別する画像解析部と、を備え、運転制御部は、配車エリア内において車両を減速させ、第1のカメラで利用者を識別できない場合は、第2のカメラで利用者を識別可能な配車エリア内の位置へ車両を移動させる車両制御装置が提供される。 According to one aspect of the present invention, an image of a person around the vehicle taken by a driving control unit that automatically drives the vehicle to the vehicle allocation area and a first camera and a second camera provided in the vehicle is captured. It is equipped with an image analysis unit that analyzes and identifies the user of the vehicle, and the driving control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the second camera is used. A vehicle control device for moving a vehicle to a position within a vehicle allocation area in which a user can be identified is provided.

また、本発明の別観点によれば、配車エリアへ車両を自動運転させる運転制御部と、車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された車両の周辺の人物の画像を解析し、車両の利用者を識別する画像解析部と、を備える車両制御装置において用いられる自動配車方法であって、運転制御部において、配車エリア内において車両を減速させるステップと、第1のカメラで利用者を識別できない場合は、第2のカメラで利用者を識別可能な配車エリア内の位置へ車両を移動させるステップと、を有する自動配車方法が提供される。 Further, according to another viewpoint of the present invention, a driving control unit that automatically drives the vehicle to the vehicle allocation area, and a person around the vehicle photographed by using the first camera and the second camera provided in the vehicle. An automatic vehicle allocation method used in a vehicle control device including an image analysis unit that analyzes an image and identifies a user of the vehicle, wherein the operation control unit decelerates the vehicle in the vehicle allocation area, and the first step. If the user cannot be identified by the camera, a second camera provides an automatic vehicle allocation method having a step of moving the vehicle to a position within the vehicle allocation area where the user can be identified.

本発明によれば、配車時において利用者をより高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。 According to the present invention, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.

第1実施形態に係る車両制御装置の構成を概略的に示すブロック図である。It is a block diagram which shows schematic structure of the vehicle control device which concerns on 1st Embodiment. 第1実施形態に係る自動配車方法の一例を示す第1の図である。It is the first figure which shows an example of the automatic vehicle dispatching method which concerns on 1st Embodiment. 第1実施形態に係る自動配車方法の一例を示す第2の図である。It is a 2nd figure which shows an example of the automatic vehicle dispatching method which concerns on 1st Embodiment. 第1実施形態に係る自動配車方法の一例を示す第3の図である。It is a 3rd figure which shows an example of the automatic vehicle dispatching method which concerns on 1st Embodiment. 第1実施形態に係る自動配車方法の一例を示す第4の図である。It is a 4th figure which shows an example of the automatic vehicle dispatching method which concerns on 1st Embodiment. 第1実施形態に係る自動配車方法を示すフローチャートである。It is a flowchart which shows the automatic vehicle dispatch method which concerns on 1st Embodiment. 第2実施形態に係る自動配車方法を示すフローチャートである。It is a flowchart which shows the automatic vehicle dispatch method which concerns on 2nd Embodiment. 第3実施形態に係る自動配車方法を示すフローチャートである。It is a flowchart which shows the automatic vehicle dispatch method which concerns on 3rd Embodiment. 第4実施形態に係る自動配車方法を示すフローチャートである。It is a flowchart which shows the automatic vehicle dispatch method which concerns on 4th Embodiment. 第5実施形態に係る自動配車方法を示すフローチャートである。It is a flowchart which shows the automatic vehicle dispatch method which concerns on 5th Embodiment.

以下、本発明の好適な実施形態について図面を用いて説明する。なお、本発明は以下の実施形態に限定されるものではなく、その要旨を逸脱しない範囲において適宜変更可能である。各図において同一、又は相当する機能を有するものは、同一符号を付し、その説明を省略又は簡潔にすることもある。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the following embodiments, and can be appropriately modified without departing from the gist thereof. Those having the same or equivalent functions in each figure are designated by the same reference numerals, and the description thereof may be omitted or simplified.

(第1実施形態)
図1は、第1実施形態に係る車両制御装置10の構成を概略的に示すブロック図である。本実施形態の車両制御装置10は、運転制御部11、画像解析部12、及び記憶部13を備えて構成される。本実施形態の車両制御装置10は、複数のカメラ2a、2bとともに車両1に搭載される。
(First Embodiment)
FIG. 1 is a block diagram schematically showing the configuration of the vehicle control device 10 according to the first embodiment. The vehicle control device 10 of the present embodiment includes a driving control unit 11, an image analysis unit 12, and a storage unit 13. The vehicle control device 10 of the present embodiment is mounted on the vehicle 1 together with a plurality of cameras 2a and 2b.

運転制御部11は、車両1を駆動する不図示の駆動部を制御し、利用者3によって予め指定された配車地点へ車両1を自動運転させる。本実施形態では、実際に車両1に乗車する利用者と配車予約を行った利用者とが異なっていてもよい。配車時には実際に車両1に乗車する利用者が認証される。 The driving control unit 11 controls a driving unit (not shown) that drives the vehicle 1 and automatically drives the vehicle 1 to a vehicle allocation point designated in advance by the user 3. In the present embodiment, the user who actually gets on the vehicle 1 and the user who has made a reservation for vehicle allocation may be different. At the time of dispatch, the user who actually gets on the vehicle 1 is authenticated.

自動運転の方法としては、例えばカメラやLIDAR等などのセンサーを利用した公知の技術が用いられ得る。また、配車地点の情報としては、例えばGPS(Global Positioning System)装置により取得される少なくとも緯度及び経度を含む位置情報が用いられ得る。但し、配車地点の情報は、上述の説明には限定されない。一例として、配車地点の情報は、更に高さを含む情報でもよい。 As a method of automatic driving, a known technique using a sensor such as a camera or LIDAR can be used. Further, as the vehicle allocation point information, for example, position information including at least latitude and longitude acquired by a GPS (Global Positioning System) device can be used. However, the information on the vehicle allocation point is not limited to the above description. As an example, the information on the vehicle allocation point may be information including the height.

画像解析部12は、車両1に設けられた複数のカメラ2a、2bを用いて撮影した車両1の周辺の人物の画像を解析し、利用者3を識別する。但し、本実施形態は上述した構成に限定されない。例えば、画像解析部12は、当該撮影された車両1の周辺の画像を解析し、バス停や標識(道路標識や停車位置を示す標識)などの識別すべき識別対象を識別してもよい。 The image analysis unit 12 analyzes images of people around the vehicle 1 taken by using a plurality of cameras 2a and 2b provided in the vehicle 1 to identify the user 3. However, this embodiment is not limited to the above-described configuration. For example, the image analysis unit 12 may analyze an image around the photographed vehicle 1 to identify an identification target such as a bus stop or a sign (a road sign or a sign indicating a stop position).

画像解析部12及び複数のカメラ2a、2bは、自動運転用の構成をそのまま利用してもよいし、自動運転用とは別に設けてもよい。また、複数のカメラ2a、2bは2台に限定されず、2台以上設けられていればよい。 The image analysis unit 12 and the plurality of cameras 2a and 2b may use the configuration for automatic driving as it is, or may be provided separately from the configuration for automatic driving. Further, the plurality of cameras 2a and 2b are not limited to two, and two or more cameras may be provided.

運転制御部11及び画像解析部12は、同一のECU(Electronic Control Unit)等のプロセッサーによって実行されてもよいし、異なるプロセッサーによって実行されてもよい。このような構成によれば、配車時に利用者3を識別することができるので、第3者による車両1の不正な利用を防止することができる。また、運転制御部11は、車両1を利用者3の近くに移動させて停止させ、例えば車両1の利用者3の側のドアを自動的に開けることで、利用者3の利便性を向上させることができる。 The operation control unit 11 and the image analysis unit 12 may be executed by the same processor such as an ECU (Electronic Control Unit), or may be executed by different processors. According to such a configuration, since the user 3 can be identified at the time of vehicle allocation, it is possible to prevent an unauthorized use of the vehicle 1 by a third party. Further, the driving control unit 11 moves the vehicle 1 closer to the user 3 to stop the vehicle 1, and automatically opens the door on the side of the user 3 of the vehicle 1, for example, to improve the convenience of the user 3. Can be made to.

記憶部13は、運転制御部11及び画像解析部12により実行されるプログラムや、プログラムの実行に必要となるデータが保存されるフラッシュメモリやHDD等の記録装置である。記憶部13には、事前に登録された利用者3の画像が記録されている。実際に車両1に乗車する利用者と配車予約を行った利用者とが異なる場合は、実際に乗車する利用者の画像が記憶部13に記憶される。 The storage unit 13 is a recording device such as a flash memory or an HDD that stores a program executed by the operation control unit 11 and the image analysis unit 12 and data necessary for executing the program. An image of the user 3 registered in advance is recorded in the storage unit 13. When the user who actually gets on the vehicle 1 and the user who has made a reservation for dispatching the vehicle are different, the image of the user who actually gets on the vehicle 1 is stored in the storage unit 13.

図2~図5は、第1実施形態に係る自動配車方法の一例を示す図である。図2には、一例として、ホテル等のバレーパーキング(Valet Parking)において自動配車サービスを利用している利用者3を示している。 2 to 5 are diagrams showing an example of the automatic vehicle allocation method according to the first embodiment. FIG. 2 shows, as an example, a user 3 who is using an automatic vehicle dispatch service in valet parking at a hotel or the like.

運転制御部11は、利用者3によって予め指定された配車地点を含む配車エリアR内へ車両1を自動運転させる。配車エリアRは、例えば、利用者3によって予め指定された配車地点を中心とする一定半径内の範囲として設定される。或いは、図2に示すように配車地点が道路上である場合には、利用者3によって予め指定された配車地点を中心とし、道路に沿った前後一定距離内の範囲として設定される。また或いは、複数のカメラ2a、2bを用いて配車地点の周辺を撮影した映像を解析し、配車地点の周辺の道路状況から配車エリアRを動的に設定してもよい。 The driving control unit 11 automatically drives the vehicle 1 into the vehicle allocation area R including the vehicle allocation point designated in advance by the user 3. The vehicle allocation area R is set, for example, as a range within a fixed radius centered on a vehicle allocation point designated in advance by the user 3. Alternatively, when the vehicle allocation point is on the road as shown in FIG. 2, the vehicle allocation point is set as a range within a certain front-rear distance along the road centering on the vehicle allocation point designated in advance by the user 3. Alternatively, the vehicle allocation area R may be dynamically set based on the road conditions around the vehicle allocation point by analyzing the images taken around the vehicle allocation point using the plurality of cameras 2a and 2b.

画像解析部12は、配車エリアR内において、複数のカメラ2a、2bを用いて撮影した車両1の周辺の人物の画像と、記憶部13に記録された利用者3の画像とを、例えば顔認識により照合して利用者3を識別する。 In the vehicle allocation area R, the image analysis unit 12 captures an image of a person around the vehicle 1 taken by using a plurality of cameras 2a and 2b, and an image of the user 3 recorded in the storage unit 13, for example, a face. The user 3 is identified by collating by recognition.

しかし、図3に示すように、配車時に利用者3がカメラ2aの方向を向いていない場合や、利用者3が携帯電話の操作中又は通話中で利用者3の顔が隠れている場合は、利用者3の顔を撮影できないタイミングが生じ得る。このような場合は、利用者3を識別することが難しい。 However, as shown in FIG. 3, when the user 3 is not facing the direction of the camera 2a at the time of dispatching the vehicle, or when the user 3 is operating the mobile phone or is talking on the phone and the face of the user 3 is hidden. , There may be a timing when the face of the user 3 cannot be photographed. In such a case, it is difficult to identify the user 3.

そこで、本実施形態の運転制御部11は、車両1が配車エリアR内に入ると、車両1を減速させる。これにより、カメラ2aを用いて利用者3を撮影できる期間が長くなるため、カメラ2aの方向を向いていない利用者3が、カメラ2aの方向を向く確率が高くなる。或いは、携帯電話を操作中又は通話中の利用者3が、携帯電話の操作又は通話を終了する確率が高くなる。更に、認証の期間が長くなるため、認証失敗時に再認証を行うことが可能となる。この結果、配車時においてカメラ2aを用いて利用者3をより高い確率で識別することが可能となる。 Therefore, the operation control unit 11 of the present embodiment decelerates the vehicle 1 when the vehicle 1 enters the vehicle allocation area R. As a result, the period during which the user 3 can be photographed by using the camera 2a becomes long, so that the user 3 who does not face the direction of the camera 2a has a high probability of facing the direction of the camera 2a. Alternatively, the probability that the user 3 who is operating or talking on the mobile phone will end the operation or call of the mobile phone is high. Further, since the authentication period is long, it is possible to perform re-authentication when the authentication fails. As a result, it becomes possible to identify the user 3 with a higher probability by using the camera 2a at the time of vehicle allocation.

より具体的には、運転制御部11は、車両1の速度を、走行時の第1速度から顔認証を行うための第2速度に制御する。第2速度は第1速度よりも遅い。例えば、第1速度は、道路の法定速度である。第2速度は、予め定められた速度であり、例えば速度20km/h等とすることができる。更に、運転制御部11は、カメラ2aで利用者3を識別できない場合には、第2速度よりも更に遅い第3速度により運転を行う。例えば、第3速度は、徐行(5~10km/h)である。 More specifically, the driving control unit 11 controls the speed of the vehicle 1 from the first speed during traveling to the second speed for performing face recognition. The second speed is slower than the first speed. For example, the first speed is the legal speed of the road. The second speed is a predetermined speed, and can be, for example, a speed of 20 km / h or the like. Further, when the camera 2a cannot identify the user 3, the operation control unit 11 operates at a third speed, which is even slower than the second speed. For example, the third speed is driving (5-10 km / h).

また、本実施形態の運転制御部11は、複数のカメラ2a、2bの第1のカメラで利用者3を識別できない場合は、複数のカメラ2a、2bの第2のカメラで利用者3を識別可能な配車エリアR内の位置へ車両1を移動させる。例えば図4では、運転制御部11は、第1のカメラであるカメラ2aで利用者3を識別できなかったため、第2のカメラである別のカメラ2bを用いて利用者3を正面から撮影できる位置へ車両1を移動させている。この結果、カメラ2bを用いて利用者3を識別することが可能となる。 Further, when the operation control unit 11 of the present embodiment cannot identify the user 3 with the first cameras of the plurality of cameras 2a and 2b, the operation control unit 11 identifies the user 3 with the second cameras of the plurality of cameras 2a and 2b. The vehicle 1 is moved to a position within the possible vehicle allocation area R. For example, in FIG. 4, since the operation control unit 11 could not identify the user 3 with the camera 2a, which is the first camera, the user 3 can be photographed from the front using another camera 2b, which is the second camera. The vehicle 1 is being moved to the position. As a result, the user 3 can be identified by using the camera 2b.

複数のカメラ2a、2bを用いて利用者3を識別する確率を向上させるためには、例えば図4に示すように、1つのカメラ2aを車両1の側面に斜め前方を向けて設置し、別のカメラ2bを車両1の側面に斜め後方を向いて設置するとよい。これにより、複数のカメラ2a、2bがカバーする視野角が広くなるとともに、利用者3を長い期間撮影することができるため、配車時において利用者3をより高い確率で識別することが可能となる。 In order to improve the probability of identifying the user 3 by using the plurality of cameras 2a and 2b, for example, as shown in FIG. 4, one camera 2a is installed on the side surface of the vehicle 1 with the diagonally forward facing, and another camera 2a is installed. The camera 2b of the above may be installed on the side surface of the vehicle 1 so as to face diagonally backward. As a result, the viewing angle covered by the plurality of cameras 2a and 2b is widened, and the user 3 can be photographed for a long period of time, so that the user 3 can be identified with a higher probability when the vehicle is dispatched. ..

また、利用者3を識別するためのカメラを第1のカメラから第2のカメラへ切り替える際に、運転制御部11は、車両1を更に減速させてもよい。即ち、運転制御部11は、車両1が配車エリアR内に入った際に減速した第2速度よりも遅い速度(第3速度)により車両1を自動運転させる。 Further, when switching the camera for identifying the user 3 from the first camera to the second camera, the driving control unit 11 may further decelerate the vehicle 1. That is, the driving control unit 11 automatically drives the vehicle 1 at a speed (third speed) slower than the second speed decelerated when the vehicle 1 enters the vehicle allocation area R.

また、本実施形態の画像解析部12は、車両1の周辺の人物が向いている方向、又は車両1の周辺の人物の動作、を補助情報として生成する。そして、生成した補助情報を利用して利用者3を識別する。例えば図5では、車両1の周辺の人物のうち、車両1の方向を向いている人物、又は手を挙げている人物を利用者3として識別している。これにより、配車時において利用者3を更に高い確率で識別することが可能となる。また、画像に利用者3を含む複数の人物が含まれている場合には、より少ない処理によって利用者3を識別することが可能となる。 Further, the image analysis unit 12 of the present embodiment generates auxiliary information of the direction in which the person around the vehicle 1 is facing or the movement of the person around the vehicle 1. Then, the user 3 is identified by using the generated auxiliary information. For example, in FIG. 5, among the people around the vehicle 1, the person facing the direction of the vehicle 1 or the person raising his / her hand is identified as the user 3. This makes it possible to identify the user 3 with a higher probability at the time of vehicle allocation. Further, when a plurality of persons including the user 3 are included in the image, the user 3 can be identified by less processing.

なお、本実施形態は上述した構成に限定されない。例えば、時系列に連続した人物の動作を示す動作情報を、予め記憶部13に記憶しておき、画像解析部12は、記憶部13に記憶された動作情報によって特定される動作を行った人物を利用者3として識別してもよい。この場合、動作情報は、例えば、手を振る、手招きをする等の人物における一連の動作を識別可能な情報を含むことができる。 The present embodiment is not limited to the above-described configuration. For example, motion information indicating continuous motions of a person in time series is stored in a storage unit 13 in advance, and the image analysis unit 12 performs an motion specified by the motion information stored in the storage unit 13. May be identified as user 3. In this case, the motion information can include information that can identify a series of motions in a person such as waving a hand or beckoning.

利用者3を識別することができた場合は、運転制御部11は、車両1を利用者3の近くに移動させて停止させる。この際、利用者3を識別した後に、記憶部13から利用者3の画像を含む認証情報を削除するようにしてもよい。これにより、利用者3の認証情報が誤って第3者に利用されることを避けることができる。一方、利用者3を識別することができなかった場合は、運転制御部11は、車両1を配車エリアR内に停止させる。 If the user 3 can be identified, the driving control unit 11 moves the vehicle 1 closer to the user 3 and stops the vehicle 1. At this time, after identifying the user 3, the authentication information including the image of the user 3 may be deleted from the storage unit 13. As a result, it is possible to prevent the authentication information of the user 3 from being mistakenly used by a third party. On the other hand, if the user 3 cannot be identified, the driving control unit 11 stops the vehicle 1 in the vehicle allocation area R.

運転制御部11は、車両1を利用者3の近くに移動させて停止させた後、車両1の利用者3の側のドアを自動的に開ける。この場合に、一例として、運転制御部11は、画像解析部12により解析結果を利用して利用者3の近傍、且つ利用者3が安全に乗降可能な位置を特定するとともに、その位置に移動させて停止させてもよい。例えば、停車位置が横断歩道や交差点、或いは道路交通法にて車両1の停車が認められていない位置である場合には、運転制御部11は、利用者3が安全に乗降可能な位置でないと判断してもよい。これにより、利用者3の利便性を向上させることができる。 The operation control unit 11 automatically opens the door on the side of the user 3 of the vehicle 1 after moving the vehicle 1 close to the user 3 and stopping the vehicle 1. In this case, as an example, the operation control unit 11 uses the analysis result by the image analysis unit 12 to specify a position near the user 3 and a position where the user 3 can safely get on and off, and move to that position. You may let it stop. For example, if the stop position is a pedestrian crossing, an intersection, or a position where the vehicle 1 is not permitted to stop under the Road Traffic Act, the driving control unit 11 must be in a position where the user 3 can safely get on and off. You may judge. Thereby, the convenience of the user 3 can be improved.

その後、利用者3は、配車された車両1を利用して目的地まで移動する。ここで、利用者3の操作により、車両1の自動運転の有効/無効を切替え可能としてもよい。これにより、利用者3は、自分で車両1を運転するか、或いは運転を運転制御部11に任せるかを選択することが可能となる。 After that, the user 3 moves to the destination by using the dispatched vehicle 1. Here, the automatic driving of the vehicle 1 may be enabled / disabled by the operation of the user 3. As a result, the user 3 can select whether to drive the vehicle 1 by himself / herself or leave the driving to the driving control unit 11.

図6は、第1実施形態に係る自動配車方法を示すフローチャートである。 FIG. 6 is a flowchart showing the automatic vehicle allocation method according to the first embodiment.

ステップS101において、配車管理センターは、利用者3から配車の依頼を受けると、事前に登録された利用者3の画像を車両1の記憶部13に記録する。ステップS102において、運転制御部11は、利用者3によって予め指定された配車地点へ車両1を自動運転させる。 In step S101, when the vehicle allocation management center receives a vehicle allocation request from the user 3, the vehicle allocation management center records the image of the user 3 registered in advance in the storage unit 13 of the vehicle 1. In step S102, the driving control unit 11 automatically drives the vehicle 1 to a vehicle allocation point designated in advance by the user 3.

ステップS103において、運転制御部11は、利用者3によって予め指定された配車地点を含む所定の配車エリアR内に、車両1が入ったか否かを判定する。車両1が配車エリアR内の場合(YES)は、ステップS104に進む。一方、車両1が配車エリアR外の場合(NO)は、車両1が配車エリアR内に入るまでステップS102~S103を繰り返す。 In step S103, the operation control unit 11 determines whether or not the vehicle 1 has entered the predetermined vehicle allocation area R including the vehicle allocation point designated in advance by the user 3. If the vehicle 1 is in the vehicle allocation area R (YES), the process proceeds to step S104. On the other hand, when the vehicle 1 is outside the vehicle allocation area R (NO), steps S102 to S103 are repeated until the vehicle 1 enters the vehicle allocation area R.

ステップS104において、画像解析部12は、車両1の周辺を撮影した映像を解析して、車両1を安全に減速することが可能か否かを判定する。車両1を安全に減速することが可能と判定した場合(YES)は、ステップS105に進む。一方、車両1を安全に減速することが困難であると判定した場合(NO)は、ステップS102~S104を繰り返す。 In step S104, the image analysis unit 12 analyzes the image taken around the vehicle 1 and determines whether or not the vehicle 1 can be safely decelerated. If it is determined that the vehicle 1 can be safely decelerated (YES), the process proceeds to step S105. On the other hand, when it is determined that it is difficult to decelerate the vehicle 1 safely (NO), steps S102 to S104 are repeated.

ステップS105において、運転制御部11は、車両1を減速させる。そして、車両1の周辺の人物を撮影可能な位置へ車両1を移動させる。ステップS106において、画像解析部12は、配車エリアR内において、車両1に設けられた複数のカメラ2a、2bを用いて撮影した車両1の周辺の人物の画像を解析して利用者3を識別する。 In step S105, the driving control unit 11 decelerates the vehicle 1. Then, the vehicle 1 is moved to a position where a person around the vehicle 1 can be photographed. In step S106, the image analysis unit 12 analyzes the images of people around the vehicle 1 taken by using the plurality of cameras 2a and 2b provided in the vehicle 1 in the vehicle allocation area R to identify the user 3. do.

ステップS107において、画像解析部12は、利用者3を識別できたか否かを判定する。利用者3を識別できた場合(YES)は、ステップS108へ進む。一方、利用者3を識別できなかった場合(NO)は、利用者3が識別できるまでステップS106~S107を繰り返す。或いは、どうしても利用者3を識別することができない場合は、配車エリアR内に車両1を停止させる。 In step S107, the image analysis unit 12 determines whether or not the user 3 can be identified. If the user 3 can be identified (YES), the process proceeds to step S108. On the other hand, if the user 3 cannot be identified (NO), steps S106 to S107 are repeated until the user 3 can be identified. Alternatively, if the user 3 cannot be identified by all means, the vehicle 1 is stopped in the vehicle allocation area R.

ステップS108において、運転制御部11は、認証した利用者3の近くに車両1を移動させて停車させる。そしてステップS109において、運転制御部11は、車両1の利用者3の側のドアを自動的に開ける。 In step S108, the operation control unit 11 moves the vehicle 1 near the authenticated user 3 and stops the vehicle 1. Then, in step S109, the driving control unit 11 automatically opens the door on the side of the user 3 of the vehicle 1.

以上のように、本実施形態の車両制御装置は、配車エリアへ車両を自動運転させる運転制御部と、車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された車両の周辺の人物の画像を解析し、車両の利用者を識別する画像解析部と、を備えている。そして、運転制御部は、配車エリア内において車両を減速させ、複数のカメラを用いて利用者を識別可能な配車エリア内の位置へ車両を移動させる。このような構成によれば、配車時において利用者をより高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。 As described above, the vehicle control device of the present embodiment has a driving control unit that automatically drives the vehicle to the vehicle allocation area, and the periphery of the vehicle photographed by using the first camera and the second camera provided in the vehicle. It is equipped with an image analysis unit that analyzes the image of the person in question and identifies the user of the vehicle. Then, the operation control unit decelerates the vehicle in the vehicle allocation area and moves the vehicle to a position in the vehicle allocation area where the user can be identified by using a plurality of cameras. According to such a configuration, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.

(第2実施形態)
図7は、第2実施形態に係る自動配車方法を示すフローチャートである。図7に示すフローチャートは、図6に示したフローチャートのステップS106をより具体化し、ステップS701~S704として示したものである。その他のステップについては図6と同じである。以下、図6と異なるステップについてのみ説明を行い、図6と同じステップについては説明を省略する。
(Second Embodiment)
FIG. 7 is a flowchart showing the automatic vehicle allocation method according to the second embodiment. The flowchart shown in FIG. 7 is a more specific version of step S106 of the flowchart shown in FIG. 6 and is shown as steps S701 to S704. Other steps are the same as in FIG. Hereinafter, only the steps different from those in FIG. 6 will be described, and the description of the same steps as in FIG. 6 will be omitted.

ステップS701において、画像解析部12は、第1のカメラにより撮影された車両1の周辺の人物の画像を解析して、車両1の利用者3を識別する。ステップS702において、画像解析部12は、第1のカメラを用いて利用者3を識別することができたか否かを判定する。第1のカメラを用いて利用者3を識別することができた場合(YES)は、図7のフローチャートを終了し、例えば図6に示したフローチャートのように、運転制御部11は、利用者3の近くに車両1を移動させて停車させる。 In step S701, the image analysis unit 12 analyzes an image of a person around the vehicle 1 taken by the first camera to identify the user 3 of the vehicle 1. In step S702, the image analysis unit 12 determines whether or not the user 3 can be identified by using the first camera. When the user 3 can be identified by using the first camera (YES), the flowchart of FIG. 7 is terminated, and the operation control unit 11 is the user, for example, as shown in the flowchart of FIG. Move the vehicle 1 near 3 and stop it.

一方、第1のカメラを用いて利用者3を識別することができなかった場合(NO)は、運転制御部11は、ステップS703において、第2のカメラを用いて利用者3を識別することが可能な位置へ車両1を移動させる。そして、ステップS704において、画像解析部12は、第2のカメラを用いて撮影された車両1の周辺の人物の画像を解析して、車両1の利用者3を識別する。以降の処理は、例えば図6に示したフローチャートのステップS107以降と同様である。 On the other hand, when the user 3 cannot be identified by using the first camera (NO), the operation control unit 11 identifies the user 3 by using the second camera in step S703. Move the vehicle 1 to a position where it is possible. Then, in step S704, the image analysis unit 12 analyzes the image of the person around the vehicle 1 taken by the second camera to identify the user 3 of the vehicle 1. Subsequent processing is, for example, the same as step S107 and subsequent steps in the flowchart shown in FIG.

以上のように、本実施形態の車両制御装置は、配車エリアへ車両を自動運転させる運転制御部と、車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された車両の周辺の人物の画像を解析し、車両の利用者を識別する画像解析部と、を備えている。そして、運転制御部は、配車エリア内において車両を減速させ、第1のカメラで利用者を識別できない場合は、第2のカメラで利用者を識別可能な配車エリア内の位置へ車両を移動させる。このような構成によれば、配車時において利用者を更に高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。 As described above, the vehicle control device of the present embodiment has a driving control unit that automatically drives the vehicle to the vehicle allocation area, and the periphery of the vehicle photographed by using the first camera and the second camera provided in the vehicle. It is equipped with an image analysis unit that analyzes the image of the person in question and identifies the user of the vehicle. Then, the driving control unit decelerates the vehicle in the vehicle allocation area, and if the first camera cannot identify the user, the operation control unit moves the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera. .. According to such a configuration, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.

(第3実施形態)
図8は、第3実施形態に係る自動配車方法を示すフローチャートである。図8に示すフローチャートは、図7に示したフローチャートに加えて更にステップS801、S802を有している。以下、図7と異なるステップについてのみ説明を行い、図7と同じステップについては説明を省略する。
(Third Embodiment)
FIG. 8 is a flowchart showing the automatic vehicle allocation method according to the third embodiment. The flowchart shown in FIG. 8 further includes steps S801 and S802 in addition to the flowchart shown in FIG. 7. Hereinafter, only the steps different from those in FIG. 7 will be described, and the same steps as in FIG. 7 will be omitted.

ステップS801において、画像解析部12は、第1のカメラを用いて撮影された車両1の周辺の人物の画像を解析して、車両1の周辺の人物が向いている方向、又は車両1の周辺の人物の動作、を補助情報として生成する。そして、生成した補助情報を利用して利用者3を識別する。 In step S801, the image analysis unit 12 analyzes an image of a person in the vicinity of the vehicle 1 taken by the first camera, and analyzes the image of the person in the vicinity of the vehicle 1 in the direction in which the person in the vicinity of the vehicle 1 is facing, or in the vicinity of the vehicle 1. The movement of the person in the above is generated as auxiliary information. Then, the user 3 is identified by using the generated auxiliary information.

また、ステップS802において、画像解析部12は、第2のカメラを用いて撮影された車両1の周辺の人物の画像を解析して、車両1の周辺の人物が向いている方向、又は車両1の周辺の人物の動作、を補助情報として生成する。そして、生成した補助情報を利用して利用者3を識別する。 Further, in step S802, the image analysis unit 12 analyzes an image of a person in the vicinity of the vehicle 1 taken by the second camera, and the direction in which the person in the vicinity of the vehicle 1 is facing, or the vehicle 1 Generates the movements of people around the image as auxiliary information. Then, the user 3 is identified by using the generated auxiliary information.

以上のように、本実施形態の画像解析部は、車両の周辺の人物が向いている方向、又は車両の周辺の人物の動作、を補助情報として生成し、補助情報を利用して利用者を識別する。例えば、画像解析部は、車両の方向を向いている人物、又は手を挙げている人物を利用者として識別する。このような構成によれば、配車時において利用者を更に高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。
(第4実施形態)
図9は、第4実施形態に係る自動配車方法を示すフローチャートである。図9に示すフローチャートは、図7に示したフローチャートに加えて更にステップS901を有している。以下、図7と異なるステップについてのみ説明を行い、図7と同じステップについては説明を省略する。
As described above, the image analysis unit of the present embodiment generates auxiliary information of the direction in which the person around the vehicle is facing or the movement of the person around the vehicle, and uses the auxiliary information to generate the user. Identify. For example, the image analysis unit identifies a person facing the direction of the vehicle or a person raising his / her hand as a user. According to such a configuration, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.
(Fourth Embodiment)
FIG. 9 is a flowchart showing the automatic vehicle allocation method according to the fourth embodiment. The flowchart shown in FIG. 9 further includes step S901 in addition to the flowchart shown in FIG. 7. Hereinafter, only the steps different from those in FIG. 7 will be described, and the same steps as in FIG. 7 will be omitted.

ステップS901において、画像解析部12は、複数のカメラ2a、2bを用いて配車地点の周辺を撮影した映像を解析し、配車地点の周辺の道路状況から配車エリアRを動的に設定する。この際、画像解析部12は、例えば、停車位置が横断歩道や交差点、或いは道路交通法にて車両1の停車が認められていない位置であるか否かを考慮して、配車エリアRを設定する。 In step S901, the image analysis unit 12 analyzes the images taken around the vehicle allocation point by using the plurality of cameras 2a and 2b, and dynamically sets the vehicle allocation area R from the road conditions around the vehicle allocation point. At this time, the image analysis unit 12 sets the vehicle allocation area R in consideration of, for example, whether the stop position is a pedestrian crossing, an intersection, or a position where the vehicle 1 is not permitted to stop by the Road Traffic Act. do.

以上のように、本実施形態の画像解析部は、第1のカメラ及び第2のカメラを用いて配車エリアの周辺を撮影した映像を解析し、配車エリアの周辺の道路状況から配車エリアを設定する。このような構成によれば、利用者の利便性を更に向上させることができる。
(第5実施形態)
図10は、第5実施形態に係る自動配車方法を示すフローチャートである。図10に示すフローチャートは、図7に示したフローチャートに加えて更にステップS1001~S1003を有している。以下、図7と異なるステップについてのみ説明を行い、図7と同じステップについては説明を省略する。
As described above, the image analysis unit of the present embodiment analyzes the images taken around the vehicle allocation area using the first camera and the second camera, and sets the vehicle allocation area from the road conditions around the vehicle allocation area. do. According to such a configuration, the convenience of the user can be further improved.
(Fifth Embodiment)
FIG. 10 is a flowchart showing the automatic vehicle allocation method according to the fifth embodiment. The flowchart shown in FIG. 10 further includes steps S1001 to S1003 in addition to the flowchart shown in FIG. 7. Hereinafter, only the steps different from those in FIG. 7 will be described, and the same steps as in FIG. 7 will be omitted.

ステップS1001において、画像解析部12は、利用者3を識別することができたか否かを判定する。第1のカメラ及び第2のカメラのいずれを用いても利用者3を識別することができなかった場合(NO)は、ステップS1003に進む。そして、運転制御部11は、配車エリアR内に車両1を停止させる。 In step S1001, the image analysis unit 12 determines whether or not the user 3 can be identified. If the user 3 cannot be identified by using either the first camera or the second camera (NO), the process proceeds to step S1003. Then, the operation control unit 11 stops the vehicle 1 in the vehicle allocation area R.

一方、第1のカメラ又は第2のカメラのいずれかを用いて利用者3を識別することができた場合(YES)は、ステップS1002に進む。そして、運転制御部11は、認証した利用者3の近くに車両1を移動させて停車させる。そして、例えば図6に示したフローチャートのように、車両1の利用者3の側のドアを自動的に開ける。 On the other hand, if the user 3 can be identified by using either the first camera or the second camera (YES), the process proceeds to step S1002. Then, the operation control unit 11 moves the vehicle 1 near the authenticated user 3 and stops the vehicle 1. Then, for example, as shown in the flowchart shown in FIG. 6, the door on the side of the user 3 of the vehicle 1 is automatically opened.

以上のように、本実施形態の運転制御部は、利用者を識別することができた場合は、車両を利用者の近くに移動させて停止させ、利用者を識別することができなかった場合は、車両を配車エリア内に停止させる。このような構成によれば、利用者の利便性を更に向上させることができる。 As described above, when the operation control unit of the present embodiment can identify the user, the vehicle is moved to the vicinity of the user and stopped, and the user cannot be identified. Stops the vehicle in the dispatch area. According to such a configuration, the convenience of the user can be further improved.

(その他の実施形態)
上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(Other embodiments)
The above-mentioned embodiments are merely examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

例えば、図1に示した画像解析部12の代わりに、車両1外部の画像解析部と通信して利用者3を識別する利用者識別部を備える構成とすることも可能である。この場合、画像解析部は、例えば配車管理センター等に設けられる。 For example, instead of the image analysis unit 12 shown in FIG. 1, a user identification unit that communicates with an image analysis unit outside the vehicle 1 to identify the user 3 may be provided. In this case, the image analysis unit is provided in, for example, a vehicle allocation management center.

車両1の利用者識別部は、車両1に設けられた複数のカメラ2a、2bを用いて撮影した車両1の周辺の人物の画像を車両1の外部の画像解析部へ送信する。画像解析部は、車両1の利用者識別部から受信した車両1の周辺の人物の画像を解析して利用者3を識別し、その結果を車両1の利用者識別部へ送信する。利用者識別部は、画像解析部から受信した結果に基づいて利用者3を識別する。 The user identification unit of the vehicle 1 transmits an image of a person around the vehicle 1 taken by using a plurality of cameras 2a and 2b provided in the vehicle 1 to an image analysis unit outside the vehicle 1. The image analysis unit analyzes the image of the person around the vehicle 1 received from the user identification unit of the vehicle 1, identifies the user 3, and transmits the result to the user identification unit of the vehicle 1. The user identification unit identifies the user 3 based on the result received from the image analysis unit.

このような構成によっても、配車時において利用者をより高い確率で識別することが可能な車両制御装置及び自動配車方法を提供することができる。 With such a configuration, it is possible to provide a vehicle control device and an automatic vehicle allocation method capable of identifying a user with a higher probability at the time of vehicle allocation.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or recording medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:

(付記1)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備え、
前記運転制御部は、前記配車エリア内において前記車両を減速させ、前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を移動させる
車両制御装置。
(Appendix 1)
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
Equipped with
The operation control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the operation control unit is in the vehicle allocation area in which the user can be identified by the second camera. A vehicle control device that moves the vehicle to a position.

(付記2)
前記画像解析部は、前記車両の周辺の人物が向いている方向、又は前記車両の周辺の人物の動作、を補助情報として生成し、前記補助情報を利用して前記利用者を識別する
付記1に記載の車両制御装置。
(Appendix 2)
The image analysis unit generates auxiliary information of the direction in which a person around the vehicle is facing or the movement of a person around the vehicle, and uses the auxiliary information to identify the user. The vehicle control device described in.

(付記3)
前記画像解析部は、前記車両の方向を向いている人物、又は手を挙げている人物を前記利用者として識別する
付記2に記載の車両制御装置。
(Appendix 3)
The vehicle control device according to Appendix 2, wherein the image analysis unit identifies a person facing the direction of the vehicle or a person raising his / her hand as the user.

(付記4)
事前に登録された前記利用者の画像を記録する記憶部を更に備え、
前記画像解析部は、前記第1のカメラ及び前記第2のカメラを用いて撮影した前記車両の周辺の人物の画像と、前記記憶部に記録された前記利用者の画像とを照合して前記利用者を識別する
付記1から3のいずれか1項に記載の車両制御装置。
(Appendix 4)
Further equipped with a storage unit for recording an image of the user registered in advance,
The image analysis unit collates the image of a person around the vehicle taken by using the first camera and the second camera with the image of the user recorded in the storage unit. The vehicle control device according to any one of Supplementary note 1 to 3, which identifies a user.

(付記5)
前記画像解析部は、前記利用者を顔認識により識別する
付記4に記載の車両制御装置。
(Appendix 5)
The vehicle control device according to Appendix 4, wherein the image analysis unit identifies the user by face recognition.

(付記6)
前記画像解析部は、前記利用者を識別した後に、前記利用者の画像を前記記憶部から削除する
付記4又は5に記載の車両制御装置。
(Appendix 6)
The vehicle control device according to Appendix 4 or 5, wherein the image analysis unit deletes the image of the user from the storage unit after identifying the user.

(付記7)
前記画像解析部は、前記第1のカメラ及び前記第2のカメラを用いて前記配車エリアの周辺を撮影した映像を解析し、前記配車エリアの周辺の道路状況から前記配車エリアを設定する
付記1から6のいずれか1項に記載の車両制御装置。
(Appendix 7)
The image analysis unit analyzes images taken around the vehicle allocation area by using the first camera and the second camera, and sets the vehicle allocation area from the road conditions around the vehicle allocation area. 6. The vehicle control device according to any one of 6.

(付記8)
前記運転制御部は、前記利用者を識別することができた場合は、前記車両を前記利用者の近くに移動させて停止させ、前記利用者を識別することができなかった場合は、前記車両を前記配車エリア内に停止させる
付記1から7のいずれか1項に記載の車両制御装置。
(Appendix 8)
If the operation control unit can identify the user, the vehicle is moved near the user and stopped, and if the user cannot be identified, the vehicle is stopped. The vehicle control device according to any one of Supplementary note 1 to 7, wherein the vehicle is stopped in the vehicle allocation area.

(付記9)
前記運転制御部は、前記利用者を識別することができた場合は、前記車両を前記利用者の近くに移動させて停止させ、前記車両の前記利用者の側のドアを自動的に開ける
付記1から8のいずれか1項に記載の車両制御装置。
(Appendix 9)
If the operation control unit can identify the user, the operation control unit moves the vehicle closer to the user, stops the vehicle, and automatically opens the door on the user side of the vehicle. The vehicle control device according to any one of 1 to 8.

(付記10)
付記1から10のいずれか1項に記載の車両制御装置と、前記第1のカメラ及び前記第2のカメラとを備える
車両。
(Appendix 10)
A vehicle including the vehicle control device according to any one of Supplementary note 1 to 10 and the first camera and the second camera.

(付記11)
前記第1のカメラ及び前記第2のカメラの一方は、前記車両の側面に斜め前方を向いて設置され、前記第1のカメラ及び前記第2のカメラの他方は、前記車両の前記側面に斜め後方を向いて設置される
付記10に記載の車両。
(Appendix 11)
One of the first camera and the second camera is installed diagonally forward on the side surface of the vehicle, and the other of the first camera and the second camera is obliquely on the side surface of the vehicle. The vehicle according to Appendix 10, which is installed facing backward.

(付記12)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を前記車両の外部の画像解析部へ送信し、前記画像解析部によって解析された結果に基づいて前記車両の利用者を識別する利用者識別部と、
を備え、
前記運転制御部は、前記配車エリア内において前記車両を減速させ、前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を移動させる
車両制御装置。
(Appendix 12)
A driving control unit that automatically drives the vehicle to the dispatch area,
Images of people around the vehicle taken by using the first camera and the second camera provided in the vehicle were transmitted to an image analysis unit outside the vehicle and analyzed by the image analysis unit. A user identification unit that identifies the user of the vehicle based on the result,
Equipped with
The operation control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the operation control unit is in the vehicle allocation area in which the user can be identified by the second camera. A vehicle control device that moves the vehicle to a position.

(付記13)
付記12に記載の車両制御装置と、前記画像解析部とを備える
自動配車システム。
(Appendix 13)
An automatic vehicle allocation system including the vehicle control device according to Appendix 12 and the image analysis unit.

(付記14)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備え、
前記運転制御部は、前記配車エリアに入った場合に、前記車両を減速させ、
前記画像解析部は、前記配車エリアに入った場合に、前記第1のカメラで撮像した画像により前記利用者の識別を開始し、前記第1のカメラで撮像した画像により前記利用者を識別できない場合は、前記第2のカメラで撮像した画像により前記利用者の識別を開始する
車両制御装置。
(Appendix 14)
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
Equipped with
The operation control unit decelerates the vehicle when it enters the vehicle allocation area.
When entering the vehicle allocation area, the image analysis unit starts identifying the user from the image captured by the first camera, and cannot identify the user from the image captured by the first camera. In that case, the vehicle control device that starts the identification of the user by the image captured by the second camera.

(付記15)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備える車両制御装置において用いられる自動配車方法であって、前記運転制御部において、
前記配車エリア内において前記車両を減速させるステップと、
前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を移動させるステップと、
を有する自動配車方法。
(Appendix 15)
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
It is an automatic vehicle allocation method used in a vehicle control device comprising the above, and in the operation control unit.
A step of decelerating the vehicle in the vehicle allocation area,
When the user cannot be identified by the first camera, the step of moving the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera, and
Automatic vehicle dispatch method with.

(付記16)
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備える車両制御装置において、コンピュータを、
前記配車エリア内において前記車両を減速させる手段と、
前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を移動させる手段と、
して機能させるプログラム。
(Appendix 16)
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
In a vehicle control device equipped with a computer,
Means for decelerating the vehicle in the vehicle allocation area and
When the user cannot be identified by the first camera, the means for moving the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera, and
A program that makes it work.

(付記17)
付記16に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
(Appendix 17)
A computer-readable recording medium on which the program described in Appendix 16 is recorded.

1 :車両
2a、2b:カメラ
3 :利用者
10 :車両制御装置
11 :運転制御部
12 :画像解析部
13 :記憶部
R :配車エリア
1: Vehicle 2a, 2b: Camera 3: User 10: Vehicle control device 11: Operation control unit 12: Image analysis unit 13: Storage unit R: Vehicle allocation area

Claims (10)

配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備え、
前記運転制御部は、前記配車エリア内において前記車両を減速させ、前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させる
車両制御装置。
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
Equipped with
The operation control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the operation control unit is in the vehicle allocation area in which the user can be identified by the second camera. A vehicle control device that moves the vehicle to a position within the vehicle allocation area .
前記画像解析部は、前記車両の周辺の人物が向いている方向、又は前記車両の周辺の人物の動作、を補助情報として生成し、前記補助情報を利用して前記利用者を識別する
請求項1に記載の車両制御装置。
The image analysis unit generates auxiliary information of the direction in which a person around the vehicle is facing or the movement of a person around the vehicle, and uses the auxiliary information to identify the user. The vehicle control device according to 1.
前記画像解析部は、前記車両の方向を向いている人物、又は手を挙げている人物を前記利用者として識別する
請求項2に記載の車両制御装置。
The vehicle control device according to claim 2, wherein the image analysis unit identifies a person facing the direction of the vehicle or a person raising his / her hand as the user.
前記画像解析部は、前記第1のカメラ及び前記第2のカメラを用いて配地点の周辺を撮影した映像を解析し、前記配車地点の周辺の道路状況から前記配車エリアを設定する
請求項1から3のいずれか1項に記載の車両制御装置。
The image analysis unit analyzes images taken around the vehicle allocation point by using the first camera and the second camera, and sets the vehicle allocation area from the road conditions around the vehicle allocation point . The vehicle control device according to any one of 1 to 3.
前記運転制御部は、前記利用者を識別することができた場合は、前記車両を前記利用者の近くに移動させて停止させ、前記利用者を識別することができなかった場合は、前記車両を前記配車エリア内に停止させる
請求項1から4のいずれか1項に記載の車両制御装置。
When the operation control unit can identify the user, the vehicle is moved near the user and stopped, and when the user cannot be identified, the vehicle is moved. The vehicle control device according to any one of claims 1 to 4, wherein the vehicle is stopped in the vehicle allocation area.
請求項1から5のいずれか1項に記載の車両制御装置と、前記第1のカメラ及び前記第2のカメラとを備える
車両。
A vehicle including the vehicle control device according to any one of claims 1 to 5, the first camera, and the second camera.
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を前記車両の外部の画像解析部へ送信し、前記画像解析部によって解析された結果に基づいて前記車両の利用者を識別する利用者識別部と、
を備え、
前記運転制御部は、前記配車エリア内において前記車両を減速させ、前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させる
車両制御装置。
A driving control unit that automatically drives the vehicle to the dispatch area,
Images of people around the vehicle taken by using the first camera and the second camera provided in the vehicle were transmitted to an image analysis unit outside the vehicle and analyzed by the image analysis unit. A user identification unit that identifies the user of the vehicle based on the result,
Equipped with
The operation control unit decelerates the vehicle in the vehicle allocation area, and if the user cannot be identified by the first camera, the operation control unit is in the vehicle allocation area in which the user can be identified by the second camera. A vehicle control device that moves the vehicle to a position within the vehicle allocation area .
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備え、
前記運転制御部は、前記配車エリアに入った場合に、前記車両を減速させ、
前記画像解析部は、前記配車エリアに入った場合に、前記第1のカメラで撮像した画像により前記利用者の識別を開始し、前記第1のカメラで撮像した画像により前記利用者を識別できない場合は、前記第2のカメラで撮像した画像により前記利用者の識別を開始し、
前記運転制御部は、前記第1のカメラで撮像した画像により前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させ
車両制御装置。
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
Equipped with
The operation control unit decelerates the vehicle when it enters the vehicle allocation area.
When entering the vehicle allocation area, the image analysis unit starts identifying the user from the image captured by the first camera, and cannot identify the user from the image captured by the first camera. In that case, the identification of the user is started by the image captured by the second camera.
When the operation control unit cannot identify the user from the image captured by the first camera, the operation control unit dispatches the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera. A vehicle control device that moves within an area .
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備える車両制御装置において用いられる自動配車方法であって、前記運転制御部において、
前記配車エリア内において前記車両を減速させるステップと、
前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させるステップと、
を有する自動配車方法。
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
It is an automatic vehicle allocation method used in a vehicle control device comprising the above, and in the operation control unit.
A step of decelerating the vehicle in the vehicle allocation area,
When the user cannot be identified by the first camera, the step of moving the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera, and a step of moving the vehicle in the vehicle allocation area .
Automatic vehicle dispatch method with.
配車エリアへ車両を自動運転させる運転制御部と、
前記車両に設けられた第1のカメラ及び第2のカメラを用いて撮影された前記車両の周辺の人物の画像を解析し、前記車両の利用者を識別する画像解析部と、
を備える車両制御装置において、コンピュータを、
前記配車エリア内において前記車両を減速させる手段と、
前記第1のカメラで前記利用者を識別できない場合は、前記第2のカメラで前記利用者を識別可能な前記配車エリア内の位置へ前記車両を前記配車エリア内で移動させる手段と、
して機能させるプログラム。
A driving control unit that automatically drives the vehicle to the dispatch area,
An image analysis unit that analyzes images of people around the vehicle taken by using the first camera and the second camera provided on the vehicle and identifies the user of the vehicle.
In a vehicle control device equipped with a computer,
Means for decelerating the vehicle in the vehicle allocation area and
When the user cannot be identified by the first camera, a means for moving the vehicle to a position in the vehicle allocation area where the user can be identified by the second camera, and a means for moving the vehicle in the vehicle allocation area .
A program that makes it work.
JP2017189760A 2017-09-29 2017-09-29 Vehicle control device, vehicle, and automatic vehicle allocation method Active JP7013776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017189760A JP7013776B2 (en) 2017-09-29 2017-09-29 Vehicle control device, vehicle, and automatic vehicle allocation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017189760A JP7013776B2 (en) 2017-09-29 2017-09-29 Vehicle control device, vehicle, and automatic vehicle allocation method

Publications (2)

Publication Number Publication Date
JP2019067012A JP2019067012A (en) 2019-04-25
JP7013776B2 true JP7013776B2 (en) 2022-02-01

Family

ID=66339735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017189760A Active JP7013776B2 (en) 2017-09-29 2017-09-29 Vehicle control device, vehicle, and automatic vehicle allocation method

Country Status (1)

Country Link
JP (1) JP7013776B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021171475A1 (en) * 2020-02-27 2021-09-02 三菱電機株式会社 Joining assistance device, joining assistance system, and joining assistance method
JP7294231B2 (en) * 2020-05-07 2023-06-20 トヨタ自動車株式会社 AUTOMATIC VEHICLE CONTROL DEVICE, VEHICLE ALLOCATION SYSTEM, AND VEHICLE ALLOCATION METHOD
JP7438892B2 (en) * 2020-08-20 2024-02-27 本田技研工業株式会社 Information processing device, information processing method, and program
WO2023187890A1 (en) * 2022-03-28 2023-10-05 本田技研工業株式会社 Control device for mobile object, control method for mobile object, mobile object, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020486A (en) 2008-07-09 2010-01-28 Autonetworks Technologies Ltd Road marking recognition system
JP2012014482A (en) 2010-07-01 2012-01-19 Panasonic Corp Determination device for taxi
JP2015191264A (en) 2014-03-27 2015-11-02 株式会社ニコン Autonomous driving vehicle
JP2015191641A (en) 2014-03-31 2015-11-02 Necエンベデッドプロダクツ株式会社 Monitoring device, monitoring system, monitoring method, and program
WO2017165545A2 (en) 2016-03-24 2017-09-28 Waymo Llc Arranging passenger pickups for autonomous vehicles

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9631933B1 (en) * 2014-05-23 2017-04-25 Google Inc. Specifying unavailable locations for autonomous vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020486A (en) 2008-07-09 2010-01-28 Autonetworks Technologies Ltd Road marking recognition system
JP2012014482A (en) 2010-07-01 2012-01-19 Panasonic Corp Determination device for taxi
JP2015191264A (en) 2014-03-27 2015-11-02 株式会社ニコン Autonomous driving vehicle
JP2015191641A (en) 2014-03-31 2015-11-02 Necエンベデッドプロダクツ株式会社 Monitoring device, monitoring system, monitoring method, and program
WO2017165545A2 (en) 2016-03-24 2017-09-28 Waymo Llc Arranging passenger pickups for autonomous vehicles

Also Published As

Publication number Publication date
JP2019067012A (en) 2019-04-25

Similar Documents

Publication Publication Date Title
JP7013776B2 (en) Vehicle control device, vehicle, and automatic vehicle allocation method
US10853629B2 (en) Method for identifying a user entering an autonomous vehicle
CN109690609B (en) Passenger assist device, method, and program
US20220017046A1 (en) Vehicle dispatch management system and vehicle dispatch management server
JP6361220B2 (en) Autonomous vehicle
JP6962280B2 (en) Vehicle control method, vehicle control system, and vehicle control device
JP6917827B2 (en) Vehicle control devices, vehicles, vehicle control methods and programs
US11262204B2 (en) Vehicle movement authorization
KR20180108854A (en) Passenger pickup arrangement of autonomous vehicles
WO2019034040A1 (en) Service execution method and device
CN110809791A (en) Vehicle system, autonomous vehicle, vehicle control method, and program
JP6607062B2 (en) Remote control system
JP7120163B2 (en) parking controller
CN110103878A (en) Method and apparatus for controlling unmanned vehicle
CN111347985A (en) Automatic driving taxi
US20190369636A1 (en) Control system, control method, and non-transitory storage medium
JP2018150757A (en) Parking management system, self-propelled parking prevention device, and management server
JP7172464B2 (en) Vehicles and vehicle operation methods
JP2019091216A (en) Route setting device and route setting method
US11802533B2 (en) Safely initiating an autonomous vehicle ride
KR102534326B1 (en) System for controlling managing driving apparatus and operating method thereof
JP7071847B2 (en) Systems, methods, and programs for controlling self-driving vehicles
CN115285809A (en) Elevator control method based on automobile position, computer device and storage medium
CN111311919B (en) Server, in-vehicle device, nonvolatile storage medium, information providing system, method of providing information, and vehicle
JP7225699B2 (en) Vehicle control device and vehicle operation method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220103