JP6916852B2 - Vehicle control systems, vehicle control methods, and vehicle control programs - Google Patents

Vehicle control systems, vehicle control methods, and vehicle control programs Download PDF

Info

Publication number
JP6916852B2
JP6916852B2 JP2019184769A JP2019184769A JP6916852B2 JP 6916852 B2 JP6916852 B2 JP 6916852B2 JP 2019184769 A JP2019184769 A JP 2019184769A JP 2019184769 A JP2019184769 A JP 2019184769A JP 6916852 B2 JP6916852 B2 JP 6916852B2
Authority
JP
Japan
Prior art keywords
vehicle
person
information
unit
boarding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019184769A
Other languages
Japanese (ja)
Other versions
JP2020098570A (en
Inventor
直登志 藤本
直登志 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018207884A external-priority patent/JP6627128B2/en
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019184769A priority Critical patent/JP6916852B2/en
Publication of JP2020098570A publication Critical patent/JP2020098570A/en
Application granted granted Critical
Publication of JP6916852B2 publication Critical patent/JP6916852B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両制御システム、車両制御方法、および車両制御プログラムに関する。 The present invention relates to a vehicle control system, a vehicle control method, and a vehicle control program.

近年、1台の車両を複数人で共同利用するカーシェアリングに関する技術についての研究が進められている。これに関連して、車両を共同利用したい利用者がカーシェアリング会社に会員登録を行い、車両の利用時に、カーシェアリング会社が発行するIDやパスワード等からなる認証用情報を用いて、車両を一時的に専有利用できる技術が開示されている(例えば、特許文献1参照)。 In recent years, research on a technology related to car sharing in which one vehicle is shared by a plurality of people has been promoted. In connection with this, a user who wants to share a vehicle registers as a member with a car sharing company, and when using the vehicle, temporarily suspends the vehicle using authentication information such as an ID and password issued by the car sharing company. A technology that can be exclusively used is disclosed (see, for example, Patent Document 1).

国際公開第2015/166811号International Publication No. 2015/166811

しかしながら、従来技術の手法では、各会員が1台の車両を個別に利用するため、相乗り車両としての利用は困難であった。また、相乗り希望者は、走行中の車両のうち、どの車両が相乗りできるのかを容易に把握することができない場合があった。 However, in the method of the prior art, since each member individually uses one vehicle, it is difficult to use it as a carpool vehicle. In addition, the carpooling applicant may not be able to easily grasp which of the traveling vehicles can be carpooled.

本発明は、このような事情を考慮してなされたものであり、車両の相乗りを容易に実現することができる車両制御システム、車両制御方法、および車両制御プログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and one of the objects of the present invention is to provide a vehicle control system, a vehicle control method, and a vehicle control program capable of easily realizing carpooling of vehicles. do.

請求項1に記載の発明は、車外に向けて情報を出力する出力部と、車室内を撮像する車室内カメラと、前記車室内カメラにより撮像された画像に含まれる顔に関する情報に基づいた前記車室内に存在する座席に着座する乗員の位置および性別を含む情報と、車両に設定される車内装備に関する情報とを車内状況として取得する車内状況取得部と、前記車内状況取得部により取得された車内状況および前記車両に乗り込み可能か否かを示す情報を、前記出力部に出力させる制御部と、を備える車両制御システムである。 The invention according to claim 1 is based on an output unit that outputs information to the outside of the vehicle, an interior camera that captures the interior of the vehicle, and information on the face included in the image captured by the interior camera. The in-vehicle condition acquisition unit that acquires information including the position and gender of the occupant seated in the seat in the vehicle interior and the information on the in-vehicle equipment set in the vehicle as the in-vehicle condition, and the in-vehicle condition acquisition unit obtains the information. and the information indicating whether available or not boarded the vehicle status and the vehicle, a vehicle control system and a control unit to output to the output unit.

請求項2に記載の発明は、請求項1に記載の車両制御システムであって、前記車内状況取得部は、前記車室内カメラにより撮像された画像に含まれる顔領域に基づいて、前記車室内に存在する複数の座席のうち、何れかに着座する乗員の位置を取得すると共に、前記画像に含まれる前記乗員の髪型、服装、顔の形状、および色のうち少なくとも1つに基づいて、前記乗員の性別を推定するものである。 The invention according to claim 2 is the vehicle control system according to claim 1, wherein the vehicle interior condition acquisition unit is based on a face region included in an image captured by the vehicle interior camera. Based on at least one of the occupant's hairstyle, clothes, face shape, and color included in the image, the position of the occupant seated in one of the plurality of seats existing in the It estimates the gender of the occupants.

請求項3に記載の発明は、請求項1または2に記載の車両制御システムであって、前記車両の周辺にいる人物を認識する認識部と、前記認識部により認識された人物が乗車に不適格か否かを判定する判定部と、を更に備え、前記判定部は、前記認識部により認識された人物が乗車希望者であるか否かを判定し、前記乗車希望者であると判定された場合に、前記乗車希望者の人物情報に基づいて、前記乗車希望者が乗車に不適格な人物か否かを判定するものである。 The invention according to claim 3 is the vehicle control system according to claim 1 or 2, wherein a recognition unit that recognizes a person in the vicinity of the vehicle and a person recognized by the recognition unit are not allowed to ride. Further provided with a determination unit for determining whether or not the vehicle is qualified, the determination unit determines whether or not the person recognized by the recognition unit is a ride applicant, and is determined to be the ride applicant. In this case, it is determined whether or not the person who wants to board the vehicle is ineligible for boarding based on the person information of the person who wants to board the vehicle.

請求項4に記載の発明は、請求項3に記載の車両制御システムであって、前記車両の周辺を撮像する撮像部を更に備え、前記判定部は、前記撮像部により撮像された画像を解析し、解析結果として得られる前記画像に含まれる前記乗車希望者の動作に基づいて、前記乗車希望者が乗車に不適格な人物か否かを判定するものである。 The invention according to claim 4 is the vehicle control system according to claim 3, further comprising an imaging unit that images the periphery of the vehicle, and the determination unit analyzes an image captured by the imaging unit. Then, based on the movement of the rider included in the image obtained as the analysis result, it is determined whether or not the rider is ineligible for boarding.

請求項5に記載の発明は、請求項3または4に記載の車両制御システムであって、前記判定部は、すでに乗車している乗員が設定した相乗りしたくない人物情報を取得し、取得した人物情報と、前記認識部により認識された前記乗車希望者の人物情報とに基づいて、前記乗車希望者が乗車に不適格な人物か否かを判定するものである。 The invention according to claim 5 is the vehicle control system according to claim 3 or 4, wherein the determination unit acquires and acquires information on a person who does not want to share a carpool set by an already-riding occupant. Based on the person information and the person information of the ride applicant recognized by the recognition unit, it is determined whether or not the ride applicant is an unsuitable person for boarding.

請求項6に記載の発明は、請求項3から5のうち、いずれか1項に記載の車両制御システムであって、前記車両の乗員に対して情報を出力するインターフェース制御部を備え、前記インターフェース制御部は、前記判定部により前記認識部により認識された人物が乗車希望者であると判定されたタイミングで、前記乗員に前記乗車希望者を相乗りさせても良いか否かを問い合わせる出力を行い、前記判定部は、前記出力に対する前記乗員の入力結果に基づいて、前記乗車希望者が乗車に不適格か否かを判定するものである。 The invention according to claim 6 is the vehicle control system according to any one of claims 3 to 5, further comprising an interface control unit that outputs information to the occupants of the vehicle, and said the interface. At the timing when the determination unit determines that the person recognized by the recognition unit is a ride applicant, the control unit outputs an inquiry to the occupant as to whether or not the ride applicant may be shared. Based on the input result of the occupant with respect to the output, the determination unit determines whether or not the applicant for boarding is ineligible for boarding.

請求項7に記載の発明は、請求項3から6のうち、いずれか1項に記載の車両制御システムであって、前記車両は、前記判定部により前記人物が乗車に不適格と判定された場合に、前記人物の乗車を拒否する制御を行うものである。 The invention according to claim 7 is the vehicle control system according to any one of claims 3 to 6, wherein the person is determined to be ineligible for riding in the vehicle by the determination unit. In this case, it controls to refuse the boarding of the person.

請求項8に記載の発明は、車載コンピュータが、車室内カメラにより車室内を撮像し、撮像した画像に含まれる顔に関する情報に基づいた前記車室内に存在する座席に着座する乗員の位置および性別を含む情報と、車両に設定される車内装備に関する情報とを車内状況として取得し、取得した前記車内状況および前記車両に乗り込み可能か否かを示す情報を、出力部により車外に向けて出力する車両制御方法である。 The invention according to claim 8, onboard computer, capturing the passenger compartment cabin camera, occupant position and seated on the seat that is present before Symbol cabin based on information relating to a face included in the image captured and information including the gender, acquires the information about the vehicle equipment is set to the vehicle as a vehicle status, the acquired the vehicle status and information indicating whether available or not boarded the vehicle has, towards the outside of the vehicle by the output unit outputs This is a vehicle control method.

請求項9に記載の発明は、車載コンピュータに、車室内カメラにより車室内を撮像させ、撮像された画像に含まれる顔に関する情報に基づいた前記車室内に存在する座席に着座する乗員の位置および性別を含む情報と、車両に設定される車内装備に関する情報とを車内状況として取得させ、取得された前記車内状況および前記車両に乗り込み可能か否かを示す情報を、出力部により車外に向けて出力させる、車両制御プログラムである。 Invention of claim 9, the in-vehicle computer to image the passenger compartment cabin camera, the position of the occupant seated on the seat that is present before Symbol cabin based on information relating to a face included in a captured image information and including gender, and information about the vehicle equipment is set to the vehicle is acquired as the vehicle status, information indicating whether it is possible boarded on the acquired vehicle conditions and the vehicle, toward the outside by the output portion It is a vehicle control program that outputs information.

請求項1〜9に記載の発明によれば、車両制御システムは、車両の相乗りを容易に実現することができる。 According to the inventions of claims 1 to 9, the vehicle control system can easily realize carpooling of vehicles.

更に、請求項3〜7に記載の発明によれば、車両制御システムは、不適格者が車両に乗車することを抑制することができる。 Further, according to the inventions of claims 3 to 7, the vehicle control system can prevent an ineligible person from getting into the vehicle.

第1実施形態の車両システム1の構成図である。It is a block diagram of the vehicle system 1 of 1st Embodiment. 自車位置認識部122により走行車線L1に対する車両Mの相対位置および姿勢が認識される様子を示す図である。It is a figure which shows how the own vehicle position recognition part 122 recognizes the relative position and posture of the vehicle M with respect to the traveling lane L1. 推奨車線に基づいて目標軌道が生成される様子を示す図である。It is a figure which shows how the target track is generated based on a recommended lane. 車内状況取得部150による処理を説明するための図である。It is a figure for demonstrating the process by the vehicle interior condition acquisition unit 150. 車外に向けて出力されるコンテンツの一例を示す図である。It is a figure which shows an example of the content which is output to the outside of a vehicle. 画像300Fおよび300Lで示された文字列の移動の一例を示す図である。It is a figure which shows an example of the movement of the character string shown in the image 300F and 300L. 乗車希望者判定部170による乗車希望者の判定内容を説明するための図である。It is a figure for demonstrating the determination content of the person who wants to get on board by the person who wants to get on board 170. 乗車時に表示される問い合わせ画面の一例を示す図である。It is a figure which shows an example of the inquiry screen displayed at the time of boarding. 人物情報の判定時に表示される問い合わせ画面の一例を示す図である。It is a figure which shows an example of the inquiry screen which is displayed at the time of determination of person information. 車外に向けて出力される停車予定位置に関する情報の一例を示す図である。It is a figure which shows an example of the information about the planned stop position which is output to the outside of a vehicle. 追従走行時における車外への情報出力の一例を示す図である。It is a figure which shows an example of the information output to the outside of a vehicle at the time of a follow-up run. 第1実施形態の車両制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the vehicle control processing of 1st Embodiment. 第2実施形態の車両システム2の構成図である。It is a block diagram of the vehicle system 2 of the 2nd Embodiment. 第2実施形態の車両制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the vehicle control processing of 2nd Embodiment.

[第1実施形態]
以下、図面を参照し、第1実施形態の車両制御システム、車両制御方法、および車両制御プログラムについて説明する。第1実施形態では、車両制御システムが自動運転車両に適用されたものとする。自動運転とは、例えば、車両の加減速または操舵の少なくとも一方を自動的に制御して車両を走行させることをいう。
[First Embodiment]
Hereinafter, the vehicle control system, the vehicle control method, and the vehicle control program of the first embodiment will be described with reference to the drawings. In the first embodiment, it is assumed that the vehicle control system is applied to the autonomous driving vehicle. Autonomous driving means, for example, driving a vehicle by automatically controlling at least one of acceleration / deceleration or steering of the vehicle.

[全体構成]
図1は、第1実施形態の車両システム1の構成図である。車両システム1が搭載される車両(以下、車両Mと称する)は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
[overall structure]
FIG. 1 is a configuration diagram of the vehicle system 1 of the first embodiment. The vehicle on which the vehicle system 1 is mounted (hereinafter referred to as vehicle M) is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and its drive source is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or an electric motor. It is a combination of these. The electric motor operates by using the electric power generated by the generator connected to the internal combustion engine or the electric power generated by the secondary battery or the fuel cell.

車両システム1は、例えば、カメラ(撮像部)10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、ナビゲーション装置50と、MPU(Micro-Processing Unit)60と、車両センサ70と、運転操作子80と、車室内カメラ90と、自動運転制御ユニット100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 1 includes, for example, a camera (imaging unit) 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a navigation device 50, and an MPU. (Micro-Processing Unit) 60, vehicle sensor 70, driving controller 80, vehicle interior camera 90, automatic driving control unit 100, traveling driving force output device 200, braking device 210, steering device 220. To be equipped. These devices and devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added.

第1実施形態において「車両制御システム」は、例えば、HMI30と、自動運転制御ユニット100とを含む。また、HMI30は、「出力部」の一例である。また、インターフェース制御部160は、「制御部」の一例である。また、外界認識部121は、「認識部」の一例である。乗車希望者判定部170は、「判定部」の一例である。また、第1制御部120と第2制御部140とを合わせたものは、「自動運転制御部」の一例である。 In the first embodiment, the "vehicle control system" includes, for example, an HMI 30 and an automatic driving control unit 100. The HMI 30 is an example of an "output unit". The interface control unit 160 is an example of a “control unit”. Further, the outside world recognition unit 121 is an example of the "recognition unit". The boarding applicant determination unit 170 is an example of the “determination unit”. Further, the combination of the first control unit 120 and the second control unit 140 is an example of the "automatic operation control unit".

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両Mの任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。後方を撮像する場合、カメラ10は、リアウインドシールド上部やバックドア等に取り付けられる。側方を撮像する場合、カメラ10は、ドアミラー等に取り付けられる。カメラ10は、例えば、周期的に繰り返し車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 The camera 10 is, for example, a digital camera using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). One or a plurality of cameras 10 are attached to an arbitrary position of the vehicle M on which the vehicle system 1 is mounted. When photographing the front, the camera 10 is attached to the upper part of the front windshield, the back surface of the rearview mirror, and the like. When photographing the rear, the camera 10 is attached to the upper part of the rear windshield, the back door, or the like. When taking a side image, the camera 10 is attached to a door mirror or the like. The camera 10 periodically and repeatedly images the periphery of the vehicle M, for example. The camera 10 may be a stereo camera.

レーダ装置12は、車両Mの周辺にミリ波等の電波を放射するとともに、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FMCW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 radiates radio waves such as millimeter waves around the vehicle M, and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and orientation) of the object. One or a plurality of radar devices 12 may be attached to any position of the vehicle M. The radar device 12 may detect the position and velocity of the object by the FMCW (Frequency Modulated Continuous Wave) method.

ファインダ14は、照射光に対する散乱光を測定し、対象までの距離を検出するLIDAR(Light Detection and Ranging、或いはLaser Imaging Detection and Ranging)である。ファインダ14は、車両Mの任意の箇所に一つまたは複数が取り付けられる。 The finder 14 is a lidar (Light Detection and Ranging or Laser Imaging Detection and Ranging) that measures scattered light with respect to the irradiation light and detects the distance to the target. One or more of the finder 14s may be attached to any part of the vehicle M.

物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度等を認識する。物体認識装置16は、認識結果を自動運転制御ユニット100に出力する。 The object recognition device 16 performs sensor fusion processing on the detection results of a part or all of the camera 10, the radar device 12, and the finder 14, and recognizes the position, type, speed, and the like of the object. The object recognition device 16 outputs the recognition result to the automatic operation control unit 100.

通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を利用して、車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。また、通信装置20は、車外の人物が所持する端末装置と通信する。 The communication device 20 communicates with other vehicles existing in the vicinity of the vehicle M by using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or a wireless base. Communicates with various server devices via stations. Further, the communication device 20 communicates with a terminal device owned by a person outside the vehicle.

HMI30は、車内の乗員に対して各種情報を提示するとともに、乗員による入力操作を受け付ける。HMI30は、例えば、車内用機器31を含む。車内用機器31は、例えば各種表示装置、タッチパネル、スピーカ、マイク、ブザー、スイッチ、キー等である。 The HMI 30 presents various information to the occupants in the vehicle and accepts input operations by the occupants. The HMI 30 includes, for example, an in-vehicle device 31. The in-vehicle device 31 is, for example, various display devices, a touch panel, a speaker, a microphone, a buzzer, a switch, a key, and the like.

また、HMI30は、車外に対して情報を提示する。この場合、HMI30は、例えば、車外用ディスプレイ32および車外用スピーカ33等を含む。 In addition, the HMI 30 presents information to the outside of the vehicle. In this case, the HMI 30 includes, for example, an external display 32, an external speaker 33, and the like.

車外用スピーカ33は、車外の所定範囲に音声を出力する。車外用スピーカ33は、所定方向に指向性を有する音声を出力してもよい。 The vehicle external speaker 33 outputs sound to a predetermined range outside the vehicle. The vehicle external speaker 33 may output sound having directivity in a predetermined direction.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。GNSS受信機は、GNSS衛星から受信した信号に基づいて、車両Mの位置を特定する。車両Mの位置は、車両センサ70の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(例えば、目的地まで走行するときの経由地に関する情報を含む)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。経路決定部53により決定された経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、ユーザの保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a routing unit 53, and the first map information 54 is stored in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Holds. The GNSS receiver identifies the position of the vehicle M based on the signal received from the GNSS satellite. The position of the vehicle M may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 70. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partially or wholly shared with the above-mentioned HMI 30. The route determination unit 53 uses, for example, a route (for example, a purpose) from the position of the vehicle M specified by the GNSS receiver 51 (or an arbitrary position input) to the destination input by the occupant using the navigation HMI 52. (Including information on waypoints when traveling to the ground) is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. The route determined by the route determination unit 53 is output to the MPU 60. Further, the navigation device 50 may perform route guidance using the navigation HMI 52 based on the route determined by the route determination unit 53. The navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by the user. Further, the navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire the route returned from the navigation server.

MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所等が存在する場合、車両Mが、分岐先に進行するための合理的な走行経路を走行できるように、推奨車線を決定する。 The MPU 60 functions as, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route provided by the navigation device 50 into a plurality of blocks (for example, divides the route every 100 [m] with respect to the vehicle traveling direction), and refers to the second map information 62 for each block. Determine the recommended lane. The recommended lane determination unit 61 determines which lane to drive from the left. The recommended lane determination unit 61 determines the recommended lane so that the vehicle M can travel on a reasonable traveling route to proceed to the branch destination when there is a branching point, a merging point, or the like on the route.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。道路情報には、高速道路、有料道路、国道、都道府県道といった道路の種別を表す情報や、道路の車線数、非常駐車帯の領域、各車線の幅員、道路の勾配、道路の位置(経度、緯度、高さを含む3次元座標)、車線のカーブの曲率、車線の合流および分岐ポイントの位置、道路に設けられた標識等の情報が含まれる。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。 The second map information 62 is more accurate map information than the first map information 54. The second map information 62 includes, for example, information on the center of the lane, information on the boundary of the lane, and the like. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. Road information includes information indicating the type of road such as highways, toll roads, national roads, and prefectural roads, the number of lanes on the road, the area of the emergency parking zone, the width of each lane, the slope of the road, and the position of the road (longitudinal). , Latitude, three-dimensional coordinates including height), curvature of lane curves, positions of lane confluences and branch points, signs provided on roads, and the like. The second map information 62 may be updated at any time by accessing another device using the communication device 20.

車両センサ70は、車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両Mの向きを検出する方位センサ等を含む。 The vehicle sensor 70 includes a vehicle speed sensor that detects the speed of the vehicle M, an acceleration sensor that detects the acceleration, a yaw rate sensor that detects the angular velocity around the vertical axis, an orientation sensor that detects the direction of the vehicle M, and the like.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイールその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御ユニット100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一方または双方に出力される。 The driving operator 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel and other operators. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the operation operator 80, and the detection result is the automatic operation control unit 100, or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to one or both of 220.

車室内カメラ90は、運転席に着座した乗員の顔を中心として上半身を撮像する。車室内カメラ90の撮像画像は、自動運転制御ユニット100に出力される。 The vehicle interior camera 90 images the upper body centering on the face of the occupant seated in the driver's seat. The captured image of the vehicle interior camera 90 is output to the automatic driving control unit 100.

[自動運転制御ユニット]
自動運転制御ユニット100は、例えば、第1制御部120と、第2制御部140と、車内状況取得部150と、インターフェース制御部160と、乗車希望者判定部170と、相乗り精算部180とを備える。第1制御部120と、第2制御部140と、車内状況取得部150と、インターフェース制御部160と、乗車希望者判定部170と、相乗り精算部180とは、それぞれ、CPU(Central Processing Unit)等のプロセッサがプログラム(ソフトウェア)を実行することで実現される。また、以下に説明する第1制御部120、第2制御部140、車内状況取得部150、インターフェース制御部160、乗車希望者判定部170、および相乗り精算部180の各機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
[Automatic operation control unit]
The automatic driving control unit 100 includes, for example, a first control unit 120, a second control unit 140, an in-vehicle status acquisition unit 150, an interface control unit 160, a ride applicant determination unit 170, and a carpool settlement unit 180. Be prepared. The first control unit 120, the second control unit 140, the vehicle interior status acquisition unit 150, the interface control unit 160, the ride applicant determination unit 170, and the carpool settlement unit 180 are CPUs (Central Processing Units), respectively. It is realized by executing a program (software) by a processor such as. In addition, some of the functional units of the first control unit 120, the second control unit 140, the vehicle interior status acquisition unit 150, the interface control unit 160, the ride applicant determination unit 170, and the shared ride settlement unit 180, which will be described below, or All may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or by collaboration between software and hardware. good.

第1制御部120は、例えば、外界認識部121と、自車位置認識部122と、行動計画生成部123とを備える。 The first control unit 120 includes, for example, an outside world recognition unit 121, a vehicle position recognition unit 122, and an action plan generation unit 123.

外界認識部121は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、周辺車両の位置および速度、加速度等の状態を認識する。周辺車両の位置は、その周辺車両の重心やコーナー等の代表点で表されてもよいし、周辺車両の輪郭で表現された領域で表されてもよい。周辺車両の「状態」とは、周辺車両の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The outside world recognition unit 121 recognizes states such as the position, speed, and acceleration of surrounding vehicles based on the information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 16. The position of the peripheral vehicle may be represented by a representative point such as the center of gravity or a corner of the peripheral vehicle, or may be represented by an area represented by the outline of the peripheral vehicle. The "state" of the peripheral vehicle may include the acceleration or jerk of the peripheral vehicle, or the "behavioral state" (eg, whether or not the vehicle is changing lanes or is about to change lanes).

また、外界認識部121は、周辺車両に加えて、ガードレールや電柱、駐車車両、歩行者等の人物、その他の物体の位置を認識してもよい。 Further, the outside world recognition unit 121 may recognize the positions of guardrails, utility poles, parked vehicles, people such as pedestrians, and other objects in addition to peripheral vehicles.

自車位置認識部122は、例えば、車両Mが走行している車線(走行車線)、並びに走行車線に対する車両Mの相対位置および姿勢を認識する。自車位置認識部122は、例えば、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。この認識において、ナビゲーション装置50から取得される車両Mの位置やINSによる処理結果が加味されてもよい。 The own vehicle position recognition unit 122 recognizes, for example, the lane in which the vehicle M is traveling (traveling lane), and the relative position and posture of the vehicle M with respect to the traveling lane. The own vehicle position recognition unit 122 uses, for example, a road marking line pattern (for example, an array of solid lines and broken lines) obtained from the second map information 62 and a road around the vehicle M recognized from an image captured by the camera 10. The traveling lane is recognized by comparing with the pattern of the lane marking. In this recognition, the position of the vehicle M acquired from the navigation device 50 and the processing result by the INS may be added.

そして、自車位置認識部122は、例えば、走行車線に対する車両Mの位置や姿勢を認識する。図2は、自車位置認識部122により走行車線L1に対する車両Mの相対位置および姿勢が認識される様子を示す図である。自車位置認識部122は、例えば、車両Mの基準点(例えば重心)の走行車線中央CLからの乖離OS、および車両Mの進行方向の走行車線中央CLを連ねた線に対してなす角度θを、走行車線L1に対する車両Mの相対位置および姿勢として認識する。なお、これに代えて、自車位置認識部122は、走行車線L1のいずれかの側端部に対する車両Mの基準点の位置等を、走行車線に対する車両Mの相対位置として認識してもよい。自車位置認識部122により認識される車両Mの相対位置は、推奨車線決定部61および行動計画生成部123に提供される。 Then, the own vehicle position recognition unit 122 recognizes, for example, the position and posture of the vehicle M with respect to the traveling lane. FIG. 2 is a diagram showing how the own vehicle position recognition unit 122 recognizes the relative position and posture of the vehicle M with respect to the traveling lane L1. The own vehicle position recognition unit 122 has, for example, an angle θ formed by the deviation OS of the reference point (for example, the center of gravity) of the vehicle M from the center CL of the traveling lane and the line connecting the center CL of the traveling lane in the traveling direction of the vehicle M. Is recognized as the relative position and orientation of the vehicle M with respect to the traveling lane L1. Instead of this, the own vehicle position recognition unit 122 may recognize the position of the reference point of the vehicle M with respect to any side end of the traveling lane L1 as the relative position of the vehicle M with respect to the traveling lane. .. The relative position of the vehicle M recognized by the own vehicle position recognition unit 122 is provided to the recommended lane determination unit 61 and the action plan generation unit 123.

行動計画生成部123は、車両Mが目的地等に対して自動運転を行うための行動計画を生成する。例えば、行動計画生成部123は、推奨車線決定部61により決定された推奨車線を走行するように、且つ、車両Mの周辺状況に対応できるように、自動運転制御において順次実行されるイベントを決定する。第1実施形態の自動運転におけるイベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、車両Mの走行車線を変更する車線変更イベント、前走車両を追い越す追い越しイベント、前走車両に追従して走行する追従走行イベント、合流地点で車両を合流させる合流イベント、道路の分岐地点で車両Mを目的の方向に走行させる分岐イベント、車両Mを緊急停車させる緊急停車イベント、自動運転を終了して手動運転に切り替えるためのハンドオーバイベント等がある。また、これらのイベントの実行中に、車両Mの周辺状況(周辺車両や歩行者の存在、道路工事による車線狭窄等)に基づいて、回避のための行動が計画される場合もある。 The action plan generation unit 123 generates an action plan for the vehicle M to automatically drive to the destination or the like. For example, the action plan generation unit 123 determines the events to be sequentially executed in the automatic driving control so as to drive in the recommended lane determined by the recommended lane determination unit 61 and to respond to the surrounding conditions of the vehicle M. do. The events in the automatic driving of the first embodiment include, for example, a constant-speed traveling event in which the vehicle travels in the same traveling lane at a constant speed, a lane change event in which the traveling lane of the vehicle M is changed, an overtaking event in which the vehicle in front is overtaken, and a preceding driving. Follow-up driving event that follows the vehicle, merging event that joins the vehicle at the merging point, branching event that causes the vehicle M to run in the desired direction at the branch point of the road, emergency stop event that causes the vehicle M to make an emergency stop, automatic driving There is a handover event for switching to manual operation after finishing. In addition, during the execution of these events, actions for avoidance may be planned based on the surrounding conditions of the vehicle M (existence of surrounding vehicles and pedestrians, lane narrowing due to road construction, etc.).

行動計画生成部123は、車両Mが将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとに将来の基準時刻を複数設定し、それらの基準時刻に到達すべき目標地点(軌道点)の集合として生成される。このため、軌道点の間隔が広い場合、その軌道点の間の区間を高速に走行することを示している。 The action plan generation unit 123 generates a target track on which the vehicle M will travel in the future. The target trajectory includes, for example, a velocity element. For example, a target orbit is generated as a set of target points (orbit points) for which a plurality of future reference times should be set for each predetermined sampling time (for example, about 0 commas [sec]) and the reference times should be reached. NS. Therefore, when the distance between the track points is wide, it is shown that the vehicle travels at high speed in the section between the track points.

図3は、推奨車線に基づいて目標軌道が生成される様子を示す図である。図示するように、推奨車線は、目的地までの経路に沿って走行するのに都合が良いように設定される。行動計画生成部123は、推奨車線の切り替わり地点の所定距離手前(イベントの種類に応じて決定されてよい)に差し掛かると、車線変更イベント、分岐イベント、合流イベント等を起動する。各イベントの実行中に、障害物を回避する必要が生じた場合には、図示するように回避軌道が生成される。 FIG. 3 is a diagram showing how a target track is generated based on the recommended lane. As shown, the recommended lanes are set to be convenient for traveling along the route to the destination. When the action plan generation unit 123 approaches a predetermined distance before the recommended lane switching point (may be determined according to the type of event), the action plan generation unit 123 activates a lane change event, a branch event, a merging event, and the like. If it becomes necessary to avoid an obstacle during the execution of each event, an avoidance trajectory is generated as shown in the figure.

行動計画生成部123は、例えば、複数の目標軌道の候補を生成し、安全性と効率性の観点に基づいて、その時点で目的地までの経路に適合する最適な目標軌道を選択する。また、行動計画生成部123は、例えば、車内状況取得部150、インターフェース制御部160、および乗車希望者判定部170等の処理結果を考慮して、目標軌道を生成する。これについては、後述する。 The action plan generation unit 123 generates, for example, a plurality of target trajectory candidates, and selects the optimum target trajectory that matches the route to the destination at that time based on the viewpoint of safety and efficiency. Further, the action plan generation unit 123 generates a target trajectory in consideration of the processing results of, for example, the vehicle interior condition acquisition unit 150, the interface control unit 160, and the boarding applicant determination unit 170. This will be described later.

第2制御部140は、例えば走行制御部141を備える。走行制御部141は、行動計画生成部123によって生成された目標軌道を、予定の時刻通りに車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 140 includes, for example, a travel control unit 141. The travel control unit 141 controls the travel driving force output device 200, the brake device 210, and the steering device 220 so that the vehicle M passes the target trajectory generated by the action plan generation unit 123 on time. ..

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機等の組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The traveling driving force output device 200 outputs a traveling driving force (torque) for traveling the vehicle to the drive wheels. The traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU (Electronic Control Unit) that controls them. The ECU controls the above configuration according to the information input from the travel control unit 141 or the information input from the operation controller 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。また、ブレーキ装置210は、安全面を考慮して複数系統のブレーキ装置を備えていてもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits flood pressure to the brake caliper, an electric motor that generates flood pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the travel control unit 141 or the information input from the operation controller 80 so that the brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include, as a backup, a mechanism for transmitting the oil pressure generated by the operation of the brake pedal included in the operation operator 80 to the cylinder via the master cylinder. The brake device 210 is not limited to the configuration described above, and controls the actuator according to the information input from the travel control unit 141 or the information input from the operation operator 80 to transmit the oil pressure of the master cylinder to the cylinder. It may be an electronically controlled hydraulic brake device. Further, the brake device 210 may be provided with a plurality of systems of brake devices in consideration of safety.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, applies a force to the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the travel control unit 141 or the information input from the operation controller 80, and changes the direction of the steering wheel.

[乗車希望者を乗車させるための車両制御]
以下、第1実施形態における乗車希望者を乗車させるための車両制御について説明する。第1実施形態の車両Mは、例えば、車内状況および所定条件に基づいて、後述するインターフェース制御によって車外に情報を出力する。また、第1実施形態の車両Mは、車外の人物が乗車希望者であると判定された場合に、乗車希望者が乗車に不適格な人物か否かの判定を行い、乗車に不適格でない場合に、乗車希望者を乗車させるための停止制御を行う。また、第1実施形態の車両Mは、相乗り乗車させた乗員が降車する場合に、相乗り精算を行う。
[Vehicle control for passengers who wish to board]
Hereinafter, the vehicle control for getting the person who wants to get on the vehicle in the first embodiment will be described. The vehicle M of the first embodiment outputs information to the outside of the vehicle by interface control, which will be described later, based on, for example, an in-vehicle condition and predetermined conditions. Further, the vehicle M of the first embodiment is not ineligible for boarding by determining whether or not the person outside the vehicle is ineligible for boarding when it is determined that the person outside the vehicle is ineligible for boarding. In this case, stop control is performed to allow the person who wishes to board the vehicle to board the vehicle. Further, the vehicle M of the first embodiment performs the carpool settlement when the occupant who has been carpooled gets off.

[車内状況]
車内状況取得部150は、車両M内の状況または車内情報を取得する。図4は、車内状況取得部150による処理を説明するための図である。図4の例において、車両Mは、車外用ディスプレイ32と、車室内カメラ90と、座席Sとを備える。車外用ディスプレイ32は、例えば、車両Mの前方ディスプレイ32Fと、右側方ディスプレイ32Rと、左側方ディスプレイ32Lと、後方ディスプレイ32Bとを備える。
[In-car situation]
The vehicle interior status acquisition unit 150 acquires the vehicle interior status or vehicle interior information. FIG. 4 is a diagram for explaining processing by the vehicle interior condition acquisition unit 150. In the example of FIG. 4, the vehicle M includes an external display 32, an interior camera 90, and a seat S. The vehicle external display 32 includes, for example, a front display 32F of the vehicle M, a right side display 32R, a left side display 32L, and a rear display 32B.

前方ディスプレイ32Fは、例えば、フロントガラスの少なくとも一部に形成された光透過型の液晶パネルである。前方ディスプレイ32Fは、運転者からの前方視認を確保するとともに、車外の前方に存在する人物から視認可能な画像を表示する。また、右側方ディスプレイ32R、左側方ディスプレイ32L、および後方ディスプレイ32Bのそれぞれは、前方ディスプレイ32Fと同様に、各方向に設けられたガラスの少なくとも一部に形成された光透過型の液晶パネルである。右側方ディスプレイ32Rおよび左側方ディスプレイ32Lは、車両Mにおける後方座席のサイドウィンドウに形成されているものとするが、これに限らず、前方座席のサイドウィンドウに形成されていてもよく、前方座席および後方座席の両方に形成されていてもよい。 The front display 32F is, for example, a light transmissive liquid crystal panel formed on at least a part of the windshield. The front display 32F ensures forward visibility from the driver and displays an image visible to a person present in front of the vehicle. Further, each of the right side display 32R, the left side display 32L, and the rear display 32B is a light transmissive liquid crystal panel formed on at least a part of the glass provided in each direction, similarly to the front display 32F. .. It is assumed that the right side display 32R and the left side display 32L are formed on the side window of the rear seat in the vehicle M, but the present invention is not limited to this, and the right side display 32R and the left side display 32L may be formed on the side window of the front seat, and the front seat and It may be formed on both rear seats.

なお、車外用ディスプレイ32は、上述したように車両Mのガラスの少なくとも一部に設けられているものとしたが、これに代えて(または、加えて)、車両Mの外側のボディ部に設けられてもよい。 The vehicle external display 32 is provided on at least a part of the glass of the vehicle M as described above, but instead (or in addition), it is provided on the outer body portion of the vehicle M. May be done.

また、図4の例では、車両Mに設けられた乗員が着座する座席S1〜S4の一部または全部が撮像できる位置に、車室内カメラ90が設けられている。以下の説明では、便宜上、車室内カメラ90の位置や画角等は固定されているものとする。したがって、車内状況取得部150は、車室内カメラ90の撮像画像上の位置(座標)に、車両Mのどの座席が映っているかを予め把握している。 Further, in the example of FIG. 4, the vehicle interior camera 90 is provided at a position where a part or all of the seats S1 to S4 on which the occupant is seated can be imaged. In the following description, for convenience, it is assumed that the position, angle of view, etc. of the vehicle interior camera 90 are fixed. Therefore, the vehicle interior condition acquisition unit 150 knows in advance which seat of the vehicle M is reflected in the position (coordinates) on the captured image of the vehicle interior camera 90.

車内状況取得部150は、車室内カメラ90が撮像した撮像画像を取得し、取得した撮像画像を解析し、車両M内の各座席S1〜S4の位置のうち、どの座席に乗員が着座しているかを判断する。例えば、車内状況取得部150は、撮像画像中に顔の特徴情報(例えば目、鼻、口、顔の輪郭)を含む顔領域が存在するか否かを判定する。また、車内状況取得部150は、顔領域が存在すると判定された場合に、撮像画像に存在する顔領域の位置(中心位置)に基づいて、座席S1〜S4のうち、どの座席に乗員が着座しているかを判断する。 The vehicle interior condition acquisition unit 150 acquires an image captured by the vehicle interior camera 90, analyzes the acquired image, and seats the occupant in which of the seats S1 to S4 in the vehicle M. Determine if. For example, the vehicle interior condition acquisition unit 150 determines whether or not a face region including facial feature information (for example, eyes, nose, mouth, and facial contour) is present in the captured image. Further, when it is determined that the face region exists, the vehicle interior condition acquisition unit 150 seats the occupant in which of the seats S1 to S4 based on the position (center position) of the face region existing in the captured image. Determine if you are doing it.

また、各座席S1〜S4のそれぞれに荷重センサが設けられている場合、車内状況取得部150は、それぞれの荷重センサからの荷重値が閾値以上である場合に、その座席に乗員が着座していると判定してもよい。 Further, when the load sensors are provided in each of the seats S1 to S4, the vehicle interior condition acquisition unit 150 seats the occupant in the seat when the load value from each load sensor is equal to or more than the threshold value. It may be determined that there is.

更に、車内状況取得部150は、車室内カメラ90の撮像画像から、座席に着座している乗員の髪型や、服装、顔の形状や色等を解析し、解析した結果に基づいて、乗員の性別を推定してもよい。例えば、乗員の髪が長く、唇の色が赤である場合に、車内状況取得部150は、その乗員が女性であると判定する。また、車内状況取得部150は、乗員の乗車時に、車内用機器31を用いて乗員の性別に関する情報の入力を受け付けてもよい。車内状況取得部150は、例えば、取得した各乗員の性別に関する情報に基づいて、乗員の男女比を取得してもよい。図4の例において、乗員P1が男性、乗員P2が女性である場合、男女比は、1:1となる。 Further, the vehicle interior condition acquisition unit 150 analyzes the hairstyle, clothes, face shape and color of the occupant seated in the seat from the captured image of the vehicle interior camera 90, and based on the analysis result, the occupant Gender may be estimated. For example, when the occupant's hair is long and the lip color is red, the vehicle interior condition acquisition unit 150 determines that the occupant is a woman. Further, the in-vehicle condition acquisition unit 150 may accept input of information regarding the gender of the occupant by using the in-vehicle device 31 when the occupant is on board. The vehicle interior condition acquisition unit 150 may acquire the male-female ratio of the occupants based on the acquired information on the gender of each occupant, for example. In the example of FIG. 4, when the occupant P1 is male and the occupant P2 is female, the male-female ratio is 1: 1.

そして、車内状況取得部150は、全座席数S1〜S4と乗員が着座している座席数(乗員数)とに基づいて、車両Mに乗車できる残りの人数を算出する。図4の例では、車内状況取得部150は、座席S1〜S4のうち、座席S1およびS3に乗員P1およびP2が着座していることを把握する。また、車内状況取得部150は、全4座席のうち、2座席に乗員が着座しているため、車両Mに乗車できる残りの人数が2人であることを把握する。 Then, the in-vehicle condition acquisition unit 150 calculates the remaining number of people who can get on the vehicle M based on the total number of seats S1 to S4 and the number of seats (the number of occupants) in which the occupants are seated. In the example of FIG. 4, the vehicle interior condition acquisition unit 150 grasps that the occupants P1 and P2 are seated in the seats S1 and S3 among the seats S1 to S4. Further, the in-vehicle condition acquisition unit 150 grasps that the remaining number of passengers who can get on the vehicle M is two because the occupants are seated in two of the four seats.

また、車内状況取得部150は、車両Mに設定される車内装備に関する情報を取得する。車内設備に関する情報は、例えば、端末装置を充電する充電設備を備えているか否か、車内を加湿する加湿設備を備えているか否かに関する情報である。車内装備に関する情報は、例えば、自動運転制御ユニット100内の図示しないHDDやフラッシュメモリ等の記憶装置に保持されてよい。車内装備に関する情報は、例えば工場出荷時に予め設定されていてもよく、設備が車両Mに取り付けられたとき、または、取り外されたときに更新されてもよい。 In addition, the vehicle interior status acquisition unit 150 acquires information on the vehicle interior equipment set in the vehicle M. The information on the in-vehicle equipment is, for example, information on whether or not a charging facility for charging the terminal device is provided and whether or not a humidifying facility for humidifying the inside of the vehicle is provided. Information about the equipment in the vehicle may be stored in a storage device such as an HDD or a flash memory (not shown) in the automatic driving control unit 100, for example. The information about the in-vehicle equipment may be preset, for example, at the time of shipment from the factory, and may be updated when the equipment is attached to or removed from the vehicle M.

[インターフェース制御]
インターフェース制御部160は、車外用ディスプレイ32または車外用スピーカ33の少なくとも一方を用いて、車外に向けて情報を出力する。情報は、例えば車外用ディスプレイ32に表示される画像や車外用スピーカ33から出力される音声等のコンテンツである。コンテンツにより提示される情報は、例えば、乗車を募集するための情報である。コンテンツにより提示される情報は、例えば、車内状況取得部150から得られる車内情報である。例えば、コンテンツにより提示される情報は、車両Mに乗り込み可能か否かに関する情報である。また、コンテンツにより提示される情報は、車両Mに乗り込み可能な人数に関する情報でもよい。また、コンテンツにより提示される情報は、車内状況取得部150により取得された車内装備または乗員の男女比の情報等でもよい。
[Interface control]
The interface control unit 160 uses at least one of the vehicle exterior display 32 and the vehicle exterior speaker 33 to output information toward the outside of the vehicle. The information is, for example, content such as an image displayed on the vehicle exterior display 32 and audio output from the vehicle exterior speaker 33. The information presented by the content is, for example, information for soliciting a ride. The information presented by the content is, for example, in-vehicle information obtained from the in-vehicle status acquisition unit 150. For example, the information presented by the content is information regarding whether or not the vehicle M can be boarded. Further, the information presented by the content may be information on the number of people who can board the vehicle M. In addition, the information presented by the content may be information on the in-vehicle equipment or the male-female ratio of the occupants acquired by the in-vehicle situation acquisition unit 150.

また、コンテンツにより提示される情報は、車両Mの走行計画に関する情報でもよい。車両Mの走行計画に関する情報とは、例えば、車両Mの目的地または経由地の少なくとも一方を含む。経由地を出力することで、途中まで行先が同じ人物を相乗り乗車させることができる。インターフェース制御部160は、上述したコンテンツにより提示される情報のそれぞれを適宜組み合わせて、車外に向けて出力してもよい。 Further, the information presented by the content may be information related to the travel plan of the vehicle M. The information regarding the travel plan of the vehicle M includes, for example, at least one of the destination or the waypoint of the vehicle M. By outputting the waypoints, people with the same destination can ride together halfway. The interface control unit 160 may appropriately combine each of the information presented by the above-mentioned contents and output the information to the outside of the vehicle.

図5は、車外に向けて出力されるコンテンツの一例を示す図である。インターフェース制御部160は、外界認識部121により人物P3を認識した場合に、人物P3の位置から見える方向の車外用ディスプレイ32を用いてコンテンツを出力する。図5の例では、走行車線L1を走行する車両Mの前方ディスプレイ32Fおよび左側方ディスプレイ32Lに、目的地および車両Mに乗り込み可能な人数に関する画像300Fおよび300Lが表示されている。また、インターフェース制御部160は、画像300Fおよび300Lを、点滅表示させてもよく、日中と夜とで色を変えて表示してもよい。 FIG. 5 is a diagram showing an example of content output toward the outside of the vehicle. When the outside world recognition unit 121 recognizes the person P3, the interface control unit 160 outputs the content using the vehicle exterior display 32 in the direction visible from the position of the person P3. In the example of FIG. 5, images 300F and 300L relating to the destination and the number of people who can board the vehicle M are displayed on the front display 32F and the left side display 32L of the vehicle M traveling in the traveling lane L1. Further, the interface control unit 160 may blink the images 300F and 300L, or may display the images in different colors during the day and at night.

また、インターフェース制御部160は、車外用スピーカ33を用いて、画像300Lに示されている情報と同じ内容の音声を出力する。また、インターフェース制御部160は、車外用スピーカ33を用いて、周囲が注目を集めるような音楽や警報を出力してもよい。 Further, the interface control unit 160 uses the vehicle external speaker 33 to output sound having the same content as the information shown in the image 300L. Further, the interface control unit 160 may output music or an alarm that attracts the attention of the surroundings by using the external speaker 33.

また、インターフェース制御部160は、画像300Fおよび300Lで示された文字列を、文字の先頭から順番に移動させながら表示させてもよい。 Further, the interface control unit 160 may display the character strings shown in the images 300F and 300L while moving them in order from the beginning of the characters.

図6は、画像300Fおよび300Lで示された文字列の移動の一例を示す図である。図6の例では、インターフェース制御部160は、前方ディスプレイ32Fに表示される画像300Fを矢印D1方向に移動させ、左側方ディスプレイ32Lに表示される画像300Lを矢印D2方向に移動させる。インターフェース制御部160は、画像300Fおよび300Lを繰り返し表示させる。 FIG. 6 is a diagram showing an example of movement of the character string shown in the images 300F and 300L. In the example of FIG. 6, the interface control unit 160 moves the image 300F displayed on the front display 32F in the direction of arrow D1 and the image 300L displayed on the left side display 32L in the direction of arrow D2. The interface control unit 160 repeatedly displays the images 300F and 300L.

また、インターフェース制御部160は、外界認識部121により認識された人物の歩行する方向や歩行速度に基づいて、画像300Fおよび300Lを移動させる向きや表示速度を制御する。 Further, the interface control unit 160 controls the direction and display speed for moving the images 300F and 300L based on the walking direction and walking speed of the person recognized by the outside world recognition unit 121.

例えば、インターフェース制御部160は、左側方ディスプレイ32Lを用いて、画像300Lを表示する場合、人物P3の歩行する方向とは逆方向に移動させながら画像300Lを表示する。また、画像300Lの表示を移動させる速さは、人物P3の歩行速度と同じ速さであることが好ましい。これにより、インターフェース制御部160は、人物P3に画像300Lを視認させやすくすることができる。また、人物P3は、車両Mが自分に気が付いていることを認識することができる。 For example, when the interface control unit 160 uses the left side display 32L to display the image 300L, the interface control unit 160 displays the image 300L while moving the image 300L in the direction opposite to the walking direction of the person P3. Further, the speed of moving the display of the image 300L is preferably the same as the walking speed of the person P3. As a result, the interface control unit 160 can make it easier for the person P3 to visually recognize the image 300L. In addition, the person P3 can recognize that the vehicle M is aware of himself / herself.

また、インターフェース制御部160は、人物P3に対して画像300Fおよび300Lを出力する場合に、人物P3の走行速度に基づいて車両Mの走行速度を減速させるように、行動計画生成部123に指示してもよい。例えば、インターフェース制御部160は、人物P3の走行速度と同一または近似する速度で車両Mを走行させることで、人物P3に画像300Fおよび300Lを視認させやすくすることができる。 Further, the interface control unit 160 instructs the action plan generation unit 123 to decelerate the traveling speed of the vehicle M based on the traveling speed of the person P3 when outputting the images 300F and 300L to the person P3. You may. For example, the interface control unit 160 can make it easier for the person P3 to visually recognize the images 300F and 300L by traveling the vehicle M at a speed equal to or close to the traveling speed of the person P3.

また、インターフェース制御部160は、外界認識部121により認識された人物が複数いる場合、例えば、最初に認識した人物を対象に、車外用ディスプレイ32に画像300を出力させる。また、インターフェース制御部160は、車両Mに最も近くにいる人物を対象に、車外用ディスプレイ32に画像300を出力させてもよい。 Further, when there are a plurality of persons recognized by the outside world recognition unit 121, the interface control unit 160 causes the external display 32 to output the image 300, for example, for the person recognized first. Further, the interface control unit 160 may output the image 300 on the external display 32 for the person closest to the vehicle M.

[所定条件]
車外に向けてコンテンツを出力するための所定条件とは、例えば、(1)車両Mの走行位置、(2)車両Mの走行速度、(3)車外にいる人物の動作、(4)車両Mに乗り込み可能な人数等に関する条件である。インターフェース制御部160は、これらのうち設定された全ての条件を満たす場合に、車外に向けてコンテンツを出力する。以下、(1)〜(4)のそれぞれについて、具体的に説明する。
[Predetermined conditions]
The predetermined conditions for outputting the content to the outside of the vehicle are, for example, (1) the traveling position of the vehicle M, (2) the traveling speed of the vehicle M, (3) the movement of a person outside the vehicle, and (4) the vehicle M. It is a condition regarding the number of people who can board the train. The interface control unit 160 outputs the content to the outside of the vehicle when all the set conditions are satisfied. Hereinafter, each of (1) to (4) will be specifically described.

(1)車両Mの走行位置
インターフェース制御部160は、例えば、自車位置認識部122が認識した車両Mの位置情報に基づいて、車両Mが予め定めた区間内を走行中である場合に、車外にコンテンツを出力する。区間の設定は、工場出荷時に行ってもよく、乗員等が行ってもよい。また、区間の設定において、高速道路等、設定禁止区間が設定されていてもよい。
(1) Traveling position of vehicle M When the interface control unit 160 is traveling in a predetermined section, for example, based on the position information of the vehicle M recognized by the own vehicle position recognition unit 122, the interface control unit 160 is traveling. Output content outside the vehicle. The section may be set at the time of shipment from the factory, or may be set by an occupant or the like. Further, in the section setting, a setting prohibited section such as an expressway may be set.

(2)車両Mの走行速度
インターフェース制御部160は、例えば、車両Mの走行速度が閾値以下である場合に、車外にコンテンツを出力する。閾値は、道路ごとに予め設定されていてもよく、乗員により設定されてもよい。これにより、インターフェース制御部160は、例えば、高速道路等の人物を乗車させることができない状況における車外へのコンテンツの出力を抑制することができる。また、車外にいる人物は、低速走行している車両に出力されたコンテンツを容易に把握することができる。低速走行時にコンテンツを出力することにより、乗車希望者を乗車させる場合に、車両Mの停車をスムーズに行うことができる。
(2) Traveling speed of vehicle M The interface control unit 160 outputs content to the outside of the vehicle, for example, when the traveling speed of vehicle M is equal to or less than a threshold value. The threshold value may be preset for each road or may be set by the occupant. As a result, the interface control unit 160 can suppress the output of the content to the outside of the vehicle in a situation where a person cannot be boarded, for example, on a highway. In addition, a person outside the vehicle can easily grasp the content output to the vehicle traveling at low speed. By outputting the content when traveling at a low speed, the vehicle M can be smoothly stopped when a person who wants to board the vehicle is to be boarded.

(3)車外にいる人物の動作
インターフェース制御部160は、例えば、車外の人物が手を挙げていると推定した場合に、車外にコンテンツを出力してもよい。例えば、インターフェース制御部160は、カメラ10による撮像画像を解析し、撮像画像に含まれる人物の輪郭形状と、予め設定された手を挙げた人物の輪郭形状とのパターンマッチングにより、手を挙げている人物を推定する。これにより、インターフェース制御部160は、乗車希望者である可能性が高い人物に対してコンテンツを出力することができる。
(3) Operation of a person outside the vehicle The interface control unit 160 may output the content to the outside of the vehicle, for example, when it is estimated that the person outside the vehicle is raising his / her hand. For example, the interface control unit 160 analyzes the image captured by the camera 10 and raises the hand by pattern matching between the contour shape of the person included in the captured image and the contour shape of the person who raised the hand set in advance. Estimate the person who is. As a result, the interface control unit 160 can output the content to a person who is likely to be a rider.

(4)車両Mに乗り込み可能な人数
インターフェース制御部160は、例えば、車両Mに乗り込み可能な人数が1以上である場合に車外にコンテンツを出力してもよい。これにより、インターフェース制御部160は、満員時におけるコンテンツの出力を抑制することができる。
(4) Number of People Who Can Get in the Vehicle M The interface control unit 160 may output the content to the outside of the vehicle when, for example, the number of people who can get in the vehicle M is 1 or more. As a result, the interface control unit 160 can suppress the output of the content when it is full.

また、上記の(1)〜(4)の他にも、インターフェース制御部160は、HMI30の車内用機器31を用いて、車両Mの乗員に対して車外に向けてコンテンツを出力してよいか否かの問い合わせを行い、出力してよい旨の入力を乗員から受け付けた場合に、車外に向けてコンテンツを出力してもよい。これにより、インターフェース制御部160は、例えば、相乗りをしたくない乗員の要望に応じて、相乗りを募集するコンテンツを出力しないようにすることができる。 In addition to the above (1) to (4), can the interface control unit 160 output the content to the occupant of the vehicle M toward the outside of the vehicle by using the in-vehicle device 31 of the HMI 30? The content may be output to the outside of the vehicle when an inquiry is made as to whether or not the occupant receives an input to the effect that the content may be output. As a result, the interface control unit 160 can prevent the interface control unit 160 from outputting the content for soliciting carpooling, for example, in response to the request of the occupant who does not want to share the carpooling.

[乗車希望者の判定]
乗車希望者判定部170は、インターフェース制御部160により車外に向けてコンテンツが出力されている状況である場合に、外界認識部121により認識された人物が、乗車希望者であるか否かを判定する。図7は、乗車希望者判定部170による乗車希望者の判定内容を説明するための図である。図7の例では、車両Mと、人物P4〜P6と、人物P4およびP5が所持する端末装置400−1および400−2(以下、個々に区別して説明する場合を除き、「端末装置400」と略称する)と、サーバ装置500を示している。車両Mと、端末装置400と、サーバ装置500とは、ネットワークNWを介した通信が行われる。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)等である。
[Judgment of applicants for boarding]
The boarding applicant determination unit 170 determines whether or not the person recognized by the outside world recognition unit 121 is a boarding applicant when the content is output to the outside of the vehicle by the interface control unit 160. do. FIG. 7 is a diagram for explaining the determination contents of the boarding applicant by the boarding applicant determination unit 170. In the example of FIG. 7, the vehicle M, the persons P4 to P6, and the terminal devices 400-1 and 400-2 possessed by the persons P4 and P5 (hereinafter, the "terminal device 400" is not described separately. (Abbreviated as) indicates the server device 500. The vehicle M, the terminal device 400, and the server device 500 communicate with each other via the network NW. The network NW is, for example, WAN (Wide Area Network), LAN (Local Area Network), or the like.

端末装置400は、例えば、スマートフォンやタブレット端末である。端末装置400は、セルラー網やWi−Fi網、Bluetooth、DSRC等を利用して、周辺に存在する車両Mと通信し、或いは無線基地局を介してサーバ装置500と通信する機能を備える。 The terminal device 400 is, for example, a smartphone or a tablet terminal. The terminal device 400 has a function of communicating with a vehicle M existing in the vicinity or communicating with a server device 500 via a wireless base station by using a cellular network, a Wi-Fi network, Bluetooth, DSRC, or the like.

サーバ装置500は、1又は複数の車両の走行位置や状況等を管理する。サーバ装置500は、例えば、1台の情報処理装置である。また、サーバ装置500は、一以上の情報処理装置から構成されるクラウドサーバでもよい。 The server device 500 manages the traveling position, the situation, and the like of one or more vehicles. The server device 500 is, for example, one information processing device. Further, the server device 500 may be a cloud server composed of one or more information processing devices.

乗車希望者判定部170は、例えば、車外にいる人物P4の端末装置400−1から乗車希望者である旨の情報が通知されたときに、外界認識部121により認識された人物P4が乗車希望者であると判定する。図7の例において、人物P4は、端末装置400−1を利用して、乗車希望者である旨を示す信号を周囲に出力する。周囲とは、通信規格によって定義される通信可能な範囲である。車両Mは、通信装置20により端末装置400−1からの信号を受信する。乗車希望者判定部170は、端末装置400−1から受信した信号に基づき、外界認識部121により車両Mの近くにいる人物を認識し、認識された人物P4が乗車希望者であると判定する。 In the boarding applicant determination unit 170, for example, when the terminal device 400-1 of the person P4 outside the vehicle notifies the information that the person wishes to board the vehicle, the person P4 recognized by the outside world recognition unit 121 wants to board the vehicle. Judged as a person. In the example of FIG. 7, the person P4 uses the terminal device 400-1 to output a signal indicating that he / she wants to board the vehicle to the surroundings. The surrounding is the communicable range defined by the communication standard. The vehicle M receives the signal from the terminal device 400-1 by the communication device 20. The boarding applicant determination unit 170 recognizes a person near the vehicle M by the outside world recognition unit 121 based on the signal received from the terminal device 400-1, and determines that the recognized person P4 is a boarding applicant. ..

また、乗車希望者判定部170は、サーバ装置500を介して間接的に、端末装置400−2から乗車希望者である旨の情報が通知されたときに、外界認識部121により認識された人物が乗車希望者であると判定する。図7の例において、人物P5は、端末装置400−2を利用して、乗車希望者である旨を示す情報および端末装置400−2の位置情報を、ネットワークNWを介してサーバ装置500に送信する。サーバ装置500は、端末装置400−2から受信した情報に基づいて、端末装置400−2の位置に最も近くを走行している車両Mを抽出し、抽出した車両Mに対して、乗車希望者である旨を示す情報および端末装置400−2の位置情報を送信する。乗車希望者判定部170は、サーバ装置500から受信した情報に基づいて、端末装置400−2の位置の近くにいる人物P5を乗車希望者であると判定する。 Further, the boarding applicant determination unit 170 is a person recognized by the outside world recognition unit 121 when the terminal device 400-2 indirectly notifies the information that the passenger wishes to board the vehicle via the server device 500. Is determined to be a ride applicant. In the example of FIG. 7, the person P5 uses the terminal device 400-2 to transmit information indicating that he / she wants to board the vehicle and the position information of the terminal device 400-2 to the server device 500 via the network NW. do. Based on the information received from the terminal device 400-2, the server device 500 extracts the vehicle M traveling closest to the position of the terminal device 400-2, and the server device 500 extracts the vehicle M who wants to board the extracted vehicle M. Information indicating that the above is true and the position information of the terminal device 400-2 are transmitted. Based on the information received from the server device 500, the boarding applicant determination unit 170 determines that the person P5 near the position of the terminal device 400-2 is a boarding applicant.

また、乗車希望者判定部170は、カメラ10による撮像画像を解析し、撮像画像に含まれる人物が手を挙げていると判定された場合に、その人物が乗車希望者であると判定してもよい。図7の例において、人物P6は、手を挙げている。したがって、乗車希望者判定部170は、カメラ10による撮像画像の解析により、人物P6を乗車希望者であると判定する。 Further, the boarding applicant determination unit 170 analyzes the image captured by the camera 10, and when it is determined that the person included in the captured image is raising his / her hand, determines that the person is a boarding applicant. May be good. In the example of FIG. 7, the person P6 is raising his hand. Therefore, the boarding applicant determination unit 170 determines that the person P6 is a boarding applicant by analyzing the captured image by the camera 10.

[乗車希望者が乗車に不適格な人物か否かの判定]
また、乗車希望者判定部170は、外界認識部121により認識された人物が、乗車希望者であると判定した場合に、更に、その人物情報から乗車希望者が乗車に不適格な人物か否かを判定してもよい。
[Determining whether the person who wants to board is not suitable for boarding]
Further, when the boarding applicant determination unit 170 determines that the person recognized by the outside world recognition unit 121 is a boarding applicant, whether or not the boarding applicant is ineligible for boarding based on the person information. May be determined.

例えば、乗車希望者判定部170は、カメラ10による撮像画像を解析し、乗車希望者の付近に犬や猫等のペットの輪郭形状、またはペットの顔の特徴情報等がある場合に、乗車希望者がペットを連れていると判定する。この場合、乗車希望者判定部170は、乗車希望者が犬や猫等のペットを連れていると判定された場合であって、乗員がペット同伴者の乗車を拒否している場合に、その乗車希望者を乗車に不適格な人物と判定する。 For example, the ride applicant determination unit 170 analyzes the image captured by the camera 10, and when there is contour shape of a pet such as a dog or cat, or pet facial feature information in the vicinity of the ride applicant, the ride request is desired. Determines that a person has a pet. In this case, the ride applicant determination unit 170 determines that the ride applicant is carrying a pet such as a dog or cat, and the occupant refuses to board the pet companion. Judge the person who wants to board as a person who is not eligible for boarding.

また、乗車希望者判定部170は、カメラ10による撮像画像を解析し、乗車希望者の動作が揺れていて不自然であり、且つ、顔色が赤い場合に、乗車希望者が泥酔していると判定してもよい。また、乗車希望者判定部170は、車両センサ70がアルコール検知センサを備えている場合に、乗員希望者が吐き出す息に対するアルコール検知センサの検知結果に基づいて泥酔の判定を行ってもよい。乗車希望者判定部170は、乗車希望者が泥酔している状態であると判定された場合に、その乗車希望者を乗車に不適格な人物と判定してもよい。 Further, the ride applicant determination unit 170 analyzes the image captured by the camera 10, and when the movement of the ride applicant is swaying and unnatural, and the complexion is red, it is determined that the ride applicant is drunk. You may judge. Further, when the vehicle sensor 70 is provided with an alcohol detection sensor, the ride applicant determination unit 170 may determine drunkenness based on the detection result of the alcohol detection sensor for the breath exhaled by the occupant applicant. When it is determined that the ride applicant is in a drunken state, the ride applicant determination unit 170 may determine the ride applicant as a person who is not suitable for boarding.

また、乗車希望者判定部170は、カメラ10による撮像画像を解析し、乗車希望者がタバコを持っている、またはタバコを吸っている状態であると判定した場合に、乗車希望者が喫煙者であると判定してもよい。また、乗車希望者判定部170は、車両センサ70が臭い検知センサを備えている場合に、乗員希望者が吐き出す息に対する臭い検知センサの検知結果に基づいて喫煙者の判定を行ってもよい。乗車希望者判定部170は、乗車希望者が喫煙者である判定した場合であって、乗員が喫煙者の乗車を拒否している場合に、その乗車希望者を乗車に不適格な人物と判定してもよい。 Further, when the ride applicant determination unit 170 analyzes the image captured by the camera 10 and determines that the ride applicant is in a state of having or smoking a cigarette, the ride applicant is a smoker. It may be determined that. Further, when the vehicle sensor 70 is provided with an odor detection sensor, the ride applicant determination unit 170 may determine the smoker based on the detection result of the odor detection sensor for the breath exhaled by the occupant applicant. When the ride applicant determination unit 170 determines that the ride applicant is a smoker and the occupant refuses to board the smoker, the ride applicant determination unit 170 determines that the ride applicant is ineligible for boarding. You may.

また、乗車希望者判定部170は、カメラ10による撮像画像を解析し、乗車希望者が凶器等を持っている等の危険人物と判定された場合に、その乗車希望者を乗車に不適格な人物と判定してもよい。 Further, the ride applicant determination unit 170 analyzes the image captured by the camera 10, and when it is determined that the ride applicant is a dangerous person such as having a weapon or the like, the ride applicant is ineligible for boarding. It may be determined as a person.

また、乗車希望者判定部170は、乗員が相乗りしたくない人物情報を予め記憶しておき、乗車希望者がその条件を満たす場合に、乗車に不適格な人物と判定してよい。また、インターフェース制御部160は、乗員の乗車時または乗員希望者の人物情報を取得したタイミングで、車内用機器31のタッチパネルに問い合わせ画面を表示し、その問い合わせに対する回答から乗員が相乗りをしたくない人物情報を取得してもよい。 In addition, the boarding applicant determination unit 170 may store information on persons who the occupants do not want to ride together in advance, and if the boarding applicant satisfies the conditions, it may determine that the person is not suitable for boarding. Further, the interface control unit 160 displays an inquiry screen on the touch panel of the in-vehicle device 31 when the occupant is on board or when the person information of the occupant is acquired, and the occupant does not want to share the ride from the answer to the inquiry. Personal information may be acquired.

図8は、乗車時に表示される問い合わせ画面の一例を示す図である。図8の例では、車内用機器31のタッチパネル31Aに表示される画面例を示している。タッチパネル31Aは、例えば、車両M内の各座席の前方の所定の位置に設置される。インターフェース制御部160は、車両Mの乗車した乗員に対して、予め設定した人物情報のうち、相乗りしたくない人物を選択させる画面を、タッチパネル31Aを用いて表示する。図8の例では、タッチパネル31Aの画面上に、「ペット同伴者」、「喫煙者」、「泥酔者」等のGUI(Graphical User Interface)オブジェクトが表示されている。また、インターフェース制御部160は、乗員により選択された少なくとも1つのGUIオブジェクトに対応付けられた人物情報を、乗車希望者判定部170に出力する。これにより、乗車希望者判定部170は、上述したような乗車希望者が乗車に不適格か否かの判定を行うことができる。 FIG. 8 is a diagram showing an example of an inquiry screen displayed at the time of boarding. In the example of FIG. 8, a screen example displayed on the touch panel 31A of the in-vehicle device 31 is shown. The touch panel 31A is installed at a predetermined position in front of each seat in the vehicle M, for example. The interface control unit 160 uses the touch panel 31A to display a screen that allows the occupant of the vehicle M to select a person who does not want to ride together from the preset person information. In the example of FIG. 8, GUI (Graphical User Interface) objects such as "pet companion", "smoker", and "drunk person" are displayed on the screen of the touch panel 31A. Further, the interface control unit 160 outputs the person information associated with at least one GUI object selected by the occupant to the boarding applicant determination unit 170. As a result, the boarding applicant determination unit 170 can determine whether or not the boarding applicant is ineligible for boarding as described above.

また、インターフェース制御部160は、乗車希望者判定部170が乗車希望者の人物情報を判定したタイミングで、その人物情報に対する問い合わせ画面をタッチパネル31Aに表示して、乗員に問い合わせを行ってもよい。 Further, the interface control unit 160 may display an inquiry screen for the person information on the touch panel 31A at the timing when the boarding applicant determination unit 170 determines the person information of the person who wishes to board, and make an inquiry to the occupant.

図9は、人物情報の判定時に表示される問い合わせ画面の一例を示す図である。インターフェース制御部160は、車両Mの乗員に対して、タッチパネル31Aの画面に、乗車希望者の人物情報を表示するとともに、その人物を乗車させてよいかの問い合わせを行う。例えば、乗車希望者判定部170が、乗車希望者がペットを連れていると判定した場合、インターフェース制御部160は、図9に示すように、ペット同伴者を相乗りさせてもよいか否かを問い合わせる画面を、タッチパネル31Aに表示する。また、インターフェース制御部160は、乗車希望者の乗車を許可または拒否するためのGUIオブジェクトを画面に表示し、乗員により選択された結果を、乗車希望者判定部170に出力する。これにより、乗車希望者判定部170は、上述したような乗車希望者が乗車に不適格か否かの判定を行うことができる。 FIG. 9 is a diagram showing an example of an inquiry screen displayed at the time of determining the person information. The interface control unit 160 displays the person information of the person who wants to board the vehicle M on the screen of the touch panel 31A, and inquires to the occupant of the vehicle M whether or not the person may be boarded. For example, when the ride applicant determination unit 170 determines that the ride applicant is carrying a pet, the interface control unit 160 determines whether or not the pet companion may be shared as shown in FIG. The inquiry screen is displayed on the touch panel 31A. Further, the interface control unit 160 displays a GUI object on the screen for permitting or denying the rider, and outputs the result selected by the occupant to the rider determination unit 170. As a result, the boarding applicant determination unit 170 can determine whether or not the boarding applicant is ineligible for boarding as described above.

また、インターフェース制御部160は、上述した画面に示す情報と同様の情報を車内用機器31のスピーカにより音声で乗員に通知し、マイクから取得した回答を乗車希望者判定部170に出力してもよい。また、インターフェース制御部160は、画面表示と音声出力とを組み合わせて乗員に通知してもよい。 Further, the interface control unit 160 may notify the occupant by voice of the same information as the information shown on the screen described above by the speaker of the in-vehicle device 31, and output the answer obtained from the microphone to the boarding applicant determination unit 170. good. Further, the interface control unit 160 may notify the occupant by combining the screen display and the voice output.

なお、インターフェース制御部160は、一度問い合わせた情報を記憶しておき、同一の問い合わせを繰り返し行わないようにしてもよい。また、インターフェース制御部160は、相乗りしたくない人物に関する情報を、乗員ごとにサーバ装置500で管理させてもよい。この場合、乗車希望者判定部170は、乗員の顔認証結果または乗員ID等の識別情報に、相乗りしたくない人物に関する情報を対応付けて、通信装置20を介してサーバ装置500に登録する。また、インターフェース制御部160は、乗員の乗車時に、乗員の識別情報を取得して、通信装置20からサーバ装置500に問い合わせを行い、サーバ装置500から乗員に対応する相乗りしたくない人物に関する情報を取得する。 The interface control unit 160 may store the information once inquired and prevent the same inquiry from being repeated. Further, the interface control unit 160 may have the server device 500 manage information about a person who does not want to ride in a carpool for each occupant. In this case, the boarding applicant determination unit 170 associates the identification information such as the occupant's face recognition result or the occupant ID with the information about the person who does not want to ride together, and registers the information in the server device 500 via the communication device 20. Further, the interface control unit 160 acquires the identification information of the occupant when the occupant is on board, inquires from the communication device 20 to the server device 500, and receives information from the server device 500 regarding the person who does not want to ride together corresponding to the occupant. get.

乗車希望者判定部170は、乗車希望者が乗車に不適格な人物であると判定した場合、インターフェース制御部160は、乗車希望者の乗車を拒否する制御を行う。具体的には、インターフェース制御部160は、例えば、車両Mのドアロックを行ったり、車外用ディスプレイ32および車外用スピーカ33を用いて車外に向けて乗車拒否の通知等を行う。これにより、乗車希望者判定部170は、不適格者が車両Mに乗車することを抑制することができる。 When the boarding applicant determination unit 170 determines that the boarding applicant is an ineligible person for boarding, the interface control unit 160 controls to reject the boarding of the boarding applicant. Specifically, the interface control unit 160 locks the door of the vehicle M, or uses the vehicle exterior display 32 and the vehicle exterior speaker 33 to notify the outside of the vehicle of boarding refusal. As a result, the boarding applicant determination unit 170 can prevent an unqualified person from boarding the vehicle M.

[停止制御]
乗車希望者判定部170は、乗車希望者が乗車に不適格な人物ではない(適格な人物である)と判定した場合に、その人物付近で車両Mを停車させる指示を、行動計画生成部123に出力する。行動計画生成部123は、乗車希望者判定部170からの指示により、停車するための目標軌道を生成し、生成した目標軌道を走行制御部141に出力する。これにより、乗車希望者の付近に車両Mを停車させることができる。
[Stop control]
When the boarding applicant determination unit 170 determines that the boarding applicant is not an unqualified person for boarding (a qualified person), the action plan generation unit 123 gives an instruction to stop the vehicle M in the vicinity of the person. Output to. The action plan generation unit 123 generates a target track for stopping according to an instruction from the boarding applicant determination unit 170, and outputs the generated target track to the travel control unit 141. As a result, the vehicle M can be stopped in the vicinity of the person who wishes to board the vehicle.

また、インターフェース制御部160は、車両Mを停車させる場合に、停車することを示す情報を、車外用ディスプレイ32または車外用スピーカ33の少なくとも一方を用いて車外に向けて出力してもよい。更に、インターフェース制御部160は、乗車希望者を乗車させる予定の地点(停車予定位置)に関する情報を、車外用ディスプレイ32または車外用スピーカ33の少なくとも一方を用いて車外に出力してもよい。 Further, when the vehicle M is stopped, the interface control unit 160 may output information indicating that the vehicle is stopped to the outside of the vehicle by using at least one of the external display 32 or the external speaker 33. Further, the interface control unit 160 may output information about a point (scheduled stop position) where the person who wants to get on the vehicle is to be boarded to the outside of the vehicle by using at least one of the external display 32 or the external speaker 33.

図10は、車外に向けて出力される停車予定位置に関する情報の一例を示す図である。例えば、乗車希望者が横断歩道付近、バス停付近等の駐停車禁止区間にいる場合、車両Mは、乗車希望者の近くに停車することができない。そのため、インターフェース制御部160は、行動計画生成部123により生成された目標軌道に基づいて、停車予定位置を取得し、取得した停車予定位置に関する情報を、車外用ディスプレイ32または車外用スピーカ33の少なくとも一方を用いて乗車希望者に提示する。 FIG. 10 is a diagram showing an example of information regarding a planned stop position output toward the outside of the vehicle. For example, when the person who wants to board the vehicle is in a parking-prohibited section such as near a pedestrian crossing or a bus stop, the vehicle M cannot stop near the person who wants to board the vehicle. Therefore, the interface control unit 160 acquires the planned stop position based on the target trajectory generated by the action plan generation unit 123, and provides information on the acquired planned stop position to at least the external display 32 or the external speaker 33. Use one of them and present it to those who wish to board.

図10の例では、乗車希望者判定部170により乗車希望者と判定された人物P6が横断歩道付近にいる。この場合、インターフェース制御部160は、前方ディスプレイ32Fを用いて、停車予定位置に関する画像310Fを表示する。画像310Fは、例えば、「15m前方で停車します」等の情報を含む。これにより、人物P6は、車両Mが自分を乗せるために停車すること、および停車する位置を容易に把握することができる。 In the example of FIG. 10, a person P6 determined to be a ride applicant by the boarding applicant determination unit 170 is near the pedestrian crossing. In this case, the interface control unit 160 uses the front display 32F to display the image 310F regarding the planned stop position. Image 310F contains information such as "stops 15 m ahead". As a result, the person P6 can easily grasp when the vehicle M stops to put himself / herself and the position where the vehicle M stops.

なお、インターフェース制御部160は、人物P6を乗車させた後に、車内用機器31を用いて人物P6の目的地を受け付け、受け付けた目的地が、予め設定されている目的地まで走行するときの経由地である場合に、行動計画生成部123に人物P6の目的地で車両Mを停車させるための行動計画を生成させる。 The interface control unit 160 receives the destination of the person P6 using the in-vehicle device 31 after the person P6 is boarded, and the received destination is a route when traveling to a preset destination. In the case of the ground, the action plan generation unit 123 is made to generate an action plan for stopping the vehicle M at the destination of the person P6.

また、インターフェース制御部160は、例えば、目的地までの走行中に追従走行を実行する場合に、車両Mが追従走行している他車両との位置関係に基づいて、車外用ディスプレイ32を用いて表示する内容および位置を変更してもよい。 Further, the interface control unit 160 uses the external display 32 based on the positional relationship with another vehicle in which the vehicle M is following and traveling, for example, when the following traveling is executed while traveling to the destination. The displayed content and position may be changed.

図11は、追従走行時における車外への情報出力の一例を示す図である。図11の例において、車両M−1〜M−3は、追従走行を実行している一連の車両群である。車両M−1〜M−3のうちのいずれかは、上述の車両Mに相当する。 FIG. 11 is a diagram showing an example of information output to the outside of the vehicle during follow-up traveling. In the example of FIG. 11, vehicles M-1 to M-3 are a series of vehicle groups performing follow-up traveling. Any of the vehicles M-1 to M-3 corresponds to the vehicle M described above.

行動計画生成部123は、走行中に前走車両がある場合に、前走車両に追従して走行させる追従走行イベントを実行する。追従走行を開始した場合、インターフェース制御部160は、通信装置20を用いて周辺車両と車車間通信を行い、各周辺車両から得られた情報から、車両Mが追従走行している車両Mのうち、何番目に走行している車両かを判定する。また、インターフェース制御部160は、車両Mが、追従走行している一連の車両M−1〜M−3のうち、先行車両または最後尾車両である場合に、車両Mの目的地に関する情報とともに追従走行に関する情報を、車外に向けて出力する。 The action plan generation unit 123 executes a follow-up running event that follows the preceding running vehicle to run when there is a preceding running vehicle during running. When the follow-up running is started, the interface control unit 160 uses the communication device 20 to perform vehicle-to-vehicle communication with the surrounding vehicles, and from the information obtained from each peripheral vehicle, among the vehicles M in which the vehicle M is following the running. , Determine which vehicle is running. Further, when the vehicle M is the preceding vehicle or the last vehicle in the series of vehicles M-1 to M-3 that are following and traveling, the interface control unit 160 follows along with the information regarding the destination of the vehicle M. Outputs information about driving toward the outside of the vehicle.

図11の例において、車両Mが追従走行している車両のうち先頭車両(車両M−1)である場合、インターフェース制御部160は、前方ディスプレイ32Fに、車両Mの目的地および追従走行の先頭車両であることを示す画像320Fを出力する。また、車両Mが追従走行している車両のうち最後尾車両(車両M−3)である場合、インターフェース制御部160は、後方ディスプレイ32Bに、車両Mの目的地および追従走行の最後尾車両であることを示す画像320Bを出力する。 In the example of FIG. 11, when the vehicle M is the leading vehicle (vehicle M-1) among the vehicles that are following and traveling, the interface control unit 160 displays the destination of the vehicle M and the beginning of the following traveling on the front display 32F. An image 320F indicating that the vehicle is a vehicle is output. Further, when the vehicle M is the last vehicle (vehicle M-3) among the vehicles following the vehicle M, the interface control unit 160 displays the rear display 32B at the destination of the vehicle M and the last vehicle following the vehicle M. An image 320B indicating that there is is output.

これにより、車両M−1〜M−3の周辺車両の乗員は、その車両の目的地や追従走行している一連の車両の先頭および最後尾を視認することができる。そのため、自車両を最後尾に続いて追従走行させたり、追い越し走行を行わせる場合に、追従走行車両を意識しながら、適切な走行を実現させることができる。 As a result, the occupants of vehicles in the vicinity of the vehicles M-1 to M-3 can visually recognize the destination of the vehicle and the head and tail of a series of vehicles traveling following the vehicle. Therefore, when the own vehicle is made to follow the trailing end or is made to overtake, it is possible to realize appropriate running while being aware of the following running vehicle.

[相乗り精算]
相乗り精算部180は、車両Mに複数人が相乗りした場合に、相乗りした人数、区間、距離、実費(燃料費、高速代)等の条件に基づいて、乗員ごとの費用を計算する。例えば、相乗り精算部180は、相乗りした人数で合計金額を分割することで、各乗員は少ない費用で目的地まで到達することができる。また、相乗り精算部180は、乗員が降車する際に、精算結果等を、車内用機器31を用いて乗員に提示してもよい。
[Carpool settlement]
The carpool settlement unit 180 calculates the cost for each occupant based on conditions such as the number of carpools, the section, the distance, and the actual cost (fuel cost, highway fee) when a plurality of people ride in the vehicle M. For example, the carpool settlement unit 180 divides the total amount by the number of carpoolers so that each occupant can reach the destination at a low cost. Further, the carpool settlement unit 180 may present the settlement result or the like to the occupant using the in-vehicle device 31 when the occupant gets off.

また、相乗り精算部180は、金額の計算ではなく、相乗りさせた乗員に対するポイントを計算してもよい。計算された金額やポイントは、その場で精算されてもよく、通信装置20を介して図7に示すサーバ装置500に送信されてもよい。 Further, the carpool settlement unit 180 may calculate the points for the shared occupants instead of calculating the amount of money. The calculated amount of money and points may be settled on the spot, or may be transmitted to the server device 500 shown in FIG. 7 via the communication device 20.

計算された計算された金額やポイントがサーバ装置500に送信された場合、サーバ装置500は、乗員ごとに金額やポイントを管理する。これにより、乗員は、月ごとに利用した金額を精算することができ、蓄積されたポイントを、自分が相乗りする場合に利用したり、ポイントに商品等に交換したりする等の特典を得ることができる。 When the calculated calculated amount of money or points is transmitted to the server device 500, the server device 500 manages the amount of money or points for each occupant. As a result, the occupants can settle the amount of money used each month, and can use the accumulated points when they are synergistic, or get benefits such as exchanging points for products etc. Can be done.

[車両制御処理]
以下、第1実施形態の車両システム1による各種車両制御の一例について説明する。図12は、第1実施形態の車両制御処理の一例を示すフローチャートである。なお、図12の例では、すでに乗員が乗車している車両Mに対して、相乗り運転を行う場合の車両制御について説明する。図12の処理は、例えば、相乗り運転が実行されるごとに実行される。
[Vehicle control processing]
Hereinafter, an example of various vehicle controls by the vehicle system 1 of the first embodiment will be described. FIG. 12 is a flowchart showing an example of the vehicle control process of the first embodiment. In the example of FIG. 12, vehicle control in the case of carpooling with respect to the vehicle M in which the occupant is already on the vehicle will be described. The process of FIG. 12 is executed every time, for example, the carpooling operation is executed.

まず、ナビゲーション装置50は、すでに乗車乗員の設定を受け付ける(ステップS100)。次に、行動計画生成部123は、車両Mが目的地等に対して自動運転を行うための行動計画を生成する(ステップS102)。次に、走行制御部141は、生成された行動計画に基づいて車両Mを走行させる(ステップS104)。 First, the navigation device 50 has already accepted the settings of the occupants (step S100). Next, the action plan generation unit 123 generates an action plan for the vehicle M to automatically drive to the destination or the like (step S102). Next, the travel control unit 141 travels the vehicle M based on the generated action plan (step S104).

次に、行動計画生成部123は、車両Mが目的地に到着したか否かを判定する(ステップS106)。目的地に到着していない場合、車内状況取得部150は、車両M内の状況を取得する(ステップS108)。車両M内の状況は、少なくとも車両Mに乗り込み可能な人数に関する情報を含む。 Next, the action plan generation unit 123 determines whether or not the vehicle M has arrived at the destination (step S106). If the vehicle has not arrived at the destination, the vehicle interior status acquisition unit 150 acquires the status inside the vehicle M (step S108). The situation in vehicle M includes at least information about the number of people who can board vehicle M.

次に、インターフェース制御部160は、所定条件に基づき、車外に情報を出力するか否かを判定する(ステップS110)。車外に情報を出力する場合、インターフェース制御部160は、車外用ディスプレイ32または車外用スピーカ33の少なくとも一方を用いて、少なくとも車両に乗り込み可能な人数に関する情報を出力する(ステップS112)。 Next, the interface control unit 160 determines whether or not to output information to the outside of the vehicle based on a predetermined condition (step S110). When outputting information to the outside of the vehicle, the interface control unit 160 outputs information on at least the number of people who can get into the vehicle by using at least one of the outside display 32 and the outside speaker 33 (step S112).

次に、乗車希望者判定部170は、乗車希望者が存在するか否かを判定する(ステップS114)。乗車希望者が存在する場合、乗車希望者判定部170は、乗車希望者の人物情報を取得する(ステップS116)。次に、乗車希望者判定部170は、乗車希望者が乗車に不適格な人物か否かを判定する(ステップS118)。乗車希望者が乗車に不適格な人物である場合、インターフェース制御部160は、乗車拒否に関する制御を行い(ステップS120)、ステップS104の処理に戻る。また、乗車希望者が乗車に不適格な人物でない場合、行動計画生成部123は、車両を停車させるための目標軌道を生成し、生成した目標軌道に基づいて車両Mを停車させて(ステップS122)、乗車希望者の乗車後、ステップS104の処理に戻る。 Next, the boarding applicant determination unit 170 determines whether or not there is a boarding applicant (step S114). When there is a person who wants to board, the boarding person determination unit 170 acquires the person information of the person who wants to board (step S116). Next, the boarding applicant determination unit 170 determines whether or not the boarding applicant is a person who is not suitable for boarding (step S118). If the person who wishes to board the vehicle is a person who is not suitable for boarding, the interface control unit 160 controls the boarding refusal (step S120) and returns to the process of step S104. If the person who wants to board the vehicle is not a person who is not suitable for riding, the action plan generation unit 123 generates a target track for stopping the vehicle, and stops the vehicle M based on the generated target track (step S122). ), After boarding the rider, the process returns to step S104.

また、ステップS106において、目的地に到着した場合、相乗り精算部180は、相乗り者がいるか否かを判定する(ステップS124)。相乗り者がいる場合、相乗り精算部180は、乗員に対する相乗り精算を行う(ステップS126)。これにより、本フローチャートを終了する。 Further, in step S106, when arriving at the destination, the carpool settlement unit 180 determines whether or not there is a carpool (step S124). If there is a carpooler, the carpooling settlement unit 180 performs the carpooling settlement for the occupant (step S126). This ends this flowchart.

上述したように、第1実施形態によれば、車両制御システムは、車外に向けて乗り込み可能か否かの情報を出力することで、車両の相乗りを容易に実現することができる。具体的には、第1実施形態によれば、車両に乗り込み可能な人数に関する情報や、車両の走行計画に関する情報、車内装備、乗員の男女比等の情報を出力することで、車外にいる人物に、乗車したい車両を容易に選択させることができる。また、第1実施形態によれば、予め定めた区間内において、相乗りに関する制御を行うことができる。また、高速道路等での走行時に、相乗りに関する制御を行わないようにすることができ、安全な走行を実現することができる。 As described above, according to the first embodiment, the vehicle control system can easily realize carpooling of vehicles by outputting information on whether or not the vehicle can be boarded outside the vehicle. Specifically, according to the first embodiment, a person outside the vehicle is output by outputting information on the number of people who can get in the vehicle, information on the vehicle's travel plan, in-vehicle equipment, and the gender ratio of the occupants. You can easily select the vehicle you want to ride. Further, according to the first embodiment, control regarding carpooling can be performed within a predetermined section. In addition, when traveling on a highway or the like, it is possible to prevent control regarding carpooling, and safe driving can be realized.

また、第1実施形態によれば、周辺車両の乗員に対して、追従走行している一連の車両の先頭および最後尾を視認させることができる。そのため、自車両を最後尾に続いて追従走行させたり、追い越し走行を行わせる場合に、適切な走行を実現させることができる。また、第1実施形態によれば、端末装置からの通知により容易に乗車希望者を判定することができる。また、第1実施形態によれば、人物の手を挙げている動作により、容易に乗車希望者を判定することができる。 Further, according to the first embodiment, it is possible to make the occupants of the surrounding vehicles visually recognize the beginning and the end of the series of vehicles that are following the vehicle. Therefore, it is possible to realize appropriate running when the own vehicle is made to follow the trailing end or to be overtaken. Further, according to the first embodiment, it is possible to easily determine the person who wants to board the vehicle by the notification from the terminal device. Further, according to the first embodiment, it is possible to easily determine the person who wants to board the vehicle by raising the hand of the person.

なお、第1実施形態では、最初に車両Mに乗車した乗員が目的地を設定し、その目的地に対する自動運転において、相乗り乗車の制御を実行するものとしたが、これに限定されるものではなく、無人運転による相乗り乗車の制御を行ってもよい。この場合、例えば、サーバ装置500から車両Mに巡回経路の設定を行い、車両Mの巡回経路に関する情報を車外用ディスプレイ32および車外用スピーカ33を用いて出力する。これにより、第1実施形態の車両システム1は、例えば、無人タクシーや無人バス等に適用することができる。 In the first embodiment, the occupant who first gets on the vehicle M sets the destination and controls the shared ride in the automatic driving for the destination, but the present invention is not limited to this. Instead, the shared ride may be controlled by unmanned driving. In this case, for example, the server device 500 sets the patrol route to the vehicle M, and the information regarding the patrol route of the vehicle M is output by using the vehicle exterior display 32 and the vehicle exterior speaker 33. Thereby, the vehicle system 1 of the first embodiment can be applied to, for example, an unmanned taxi, an unmanned bus, or the like.

[第2実施形態]
次に、第2実施形態の車両制御システム、車両制御方法、および車両制御プログラムについて説明する。第2実施形態では、車両制御システムが自動運転車両でない車両に適用されたものとする。なお、以下の説明では、第1実施形態と同様の構成については、同じ構成ブロックおよび符号を付するものとし、ここでの具体的な説明は省略する。
[Second Embodiment]
Next, the vehicle control system, the vehicle control method, and the vehicle control program of the second embodiment will be described. In the second embodiment, it is assumed that the vehicle control system is applied to a vehicle that is not an autonomous driving vehicle. In the following description, the same configuration blocks and reference numerals will be assigned to the same configurations as those in the first embodiment, and specific description thereof will be omitted here.

[全体構成]
図13は、第2実施形態の車両システム2の構成図である。車両システム2は、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI30と、運転操作子80と、車室内カメラ90と、運転制御ユニット600と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図13に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
[overall structure]
FIG. 13 is a configuration diagram of the vehicle system 2 of the second embodiment. The vehicle system 2 includes a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI 30, a driving operator 80, a vehicle interior camera 90, a driving control unit 600, and the like. It includes a traveling driving force output device 200, a braking device 210, and a steering device 220. These devices and devices are connected to each other by a multiplex communication line such as a CAN communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 13 is merely an example, and a part of the configuration may be omitted or another configuration may be added.

第2実施形態において「車両制御システム」は、例えば、HMI30と、運転制御ユニット600とを含む。 In the second embodiment, the "vehicle control system" includes, for example, an HMI 30 and a driving control unit 600.

[運転制御ユニット]
運転制御ユニット600は、例えば、車内状況取得部650と、インターフェース制御部660と、乗車希望者判定部670と、相乗り精算部680とを備える。車内状況取得部650と、インターフェース制御部660と、乗車希望者判定部670と、相乗り精算部680とは、それぞれ、CPU等のプロセッサがプログラム(ソフトウェア)を実行することで実現される。車内状況取得部650、インターフェース制御部660、乗車希望者判定部670、および相乗り精算部680の各機能部のうち一部または全部は、LSIやASIC、FPGA等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
[Operation control unit]
The operation control unit 600 includes, for example, an in-vehicle condition acquisition unit 650, an interface control unit 660, a ride applicant determination unit 670, and a carpool settlement unit 680. The vehicle interior status acquisition unit 650, the interface control unit 660, the ride applicant determination unit 670, and the carpool settlement unit 680 are each realized by executing a program (software) by a processor such as a CPU. Some or all of the functional units of the vehicle interior status acquisition unit 650, the interface control unit 660, the ride applicant determination unit 670, and the carpool settlement unit 680 may be realized by hardware such as LSI, ASIC, and FPGA. However, it may be realized by the collaboration of software and hardware.

車内状況取得部650、インターフェース制御部660、乗車希望者判定部670、および相乗り精算部680は、それぞれ車内状況取得部150、インターフェース制御部160、乗車希望者判定部170、および相乗り精算部180に相当する。 The in-vehicle condition acquisition unit 650, the interface control unit 660, the ride applicant determination unit 670, and the carpool settlement unit 680 are assigned to the in-vehicle condition acquisition unit 150, the interface control unit 160, the ride applicant determination unit 170, and the carpool settlement unit 180, respectively. Equivalent to.

[車両制御処理]
以下、第2実施形態の車両システム2による各種車両制御の一例について説明する。図14は、第2実施形態の車両制御処理の一例を示すフローチャートである。なお、図14の例では、すでに乗員の運転により、目的地への走行が実行されている車両Mに対して相乗り運転を行う場合の車両制御について説明する。図14の処理は、例えば、相乗り運転が実行されるごとに実行される。
[Vehicle control processing]
Hereinafter, an example of various vehicle controls by the vehicle system 2 of the second embodiment will be described. FIG. 14 is a flowchart showing an example of the vehicle control process of the second embodiment. In the example of FIG. 14, vehicle control in the case of carpooling with respect to the vehicle M which has already been driven to the destination by the driving of the occupant will be described. The process of FIG. 14 is executed every time, for example, the carpooling operation is executed.

まず、運転制御ユニット600は、車両Mが目的地に到着したか否かを判定する(S200)。目的地に到着していない場合、車内状況取得部650は、車両M内の状況を取得する(ステップS202)。 First, the driving control unit 600 determines whether or not the vehicle M has arrived at the destination (S200). If the vehicle has not arrived at the destination, the vehicle interior status acquisition unit 650 acquires the status inside the vehicle M (step S202).

次に、インターフェース制御部660は、所定の条件に基づき、車外に情報を出力するか否かを判定する(ステップS204)。車外に情報を出力する場合、インターフェース制御部660は、車外用ディスプレイ32または車外用スピーカ33の少なくとも一方を用いて、少なくとも車両に乗り込み可能な人数に関する情報を出力する(ステップS206)。 Next, the interface control unit 660 determines whether or not to output information to the outside of the vehicle based on a predetermined condition (step S204). When outputting information to the outside of the vehicle, the interface control unit 660 outputs information on at least the number of people who can get into the vehicle by using at least one of the outside display 32 and the outside speaker 33 (step S206).

次に、乗車希望者判定部670は、乗車希望者が存在するか否かを判定する(ステップS208)。乗車希望者が存在する場合、乗車希望者判定部670は、乗車希望者の人物情報を取得する(ステップS210)。次に、乗車希望者判定部670は、乗車希望者が乗車に不適格な人物か否かを判定する(ステップS212)。乗車希望者が乗車に不適格な人物である場合、インターフェース制御部660は、乗車拒否に関する制御を行い(ステップS214)、ステップS200の処理に戻る。また、乗車希望者が乗車に不適格な人物でない場合、インターフェース制御部660は、車内用機器31を用いて乗車希望者が存在することを、車両Mを運転している乗員に通知する(ステップS216)。この場合、インターフェース制御部660は、例えば、スピーカにより警報を出力してもよく、乗車希望者が存在することを表示装置に出力してもよい。これにより、乗員の運転により、乗車希望者のいる位置に車両Mを停車させることができる。乗車希望者の乗車後、ステップS200の処理に戻る。 Next, the boarding applicant determination unit 670 determines whether or not there is a boarding applicant (step S208). When there is a person who wants to board, the boarding person determination unit 670 acquires the person information of the person who wants to board (step S210). Next, the boarding applicant determination unit 670 determines whether or not the boarding applicant is a person who is not suitable for boarding (step S212). If the person who wishes to board the vehicle is a person who is not suitable for boarding, the interface control unit 660 controls the boarding refusal (step S214) and returns to the process of step S200. If the person who wishes to board the vehicle is not a person who is not suitable for boarding, the interface control unit 660 uses the in-vehicle device 31 to notify the occupant who is driving the vehicle M that the person who wishes to board the vehicle exists (step). S216). In this case, the interface control unit 660 may output an alarm from, for example, a speaker, or may output to the display device that there is a person who wants to board the vehicle. As a result, the vehicle M can be stopped at a position where there is a person who wants to board the vehicle by driving the occupant. After boarding the rider, the process returns to step S200.

また、ステップS200において、目的地に到着した場合、相乗り精算部680は、相乗り者がいるか否かを判定する(ステップS218)。相乗り者がいる場合、相乗り精算部180は、乗員に対する相乗り精算を行う(ステップS220)。これにより、本フローチャートを終了する。 Further, in step S200, when arriving at the destination, the carpool settlement unit 680 determines whether or not there is a carpool (step S218). If there is a carpooler, the carpooling settlement unit 180 performs the carpooling settlement for the occupant (step S220). This ends this flowchart.

上述したように、第2実施形態によれば、車両制御システムは、手動運転用の車両に対する相乗りを容易に実現することができる。これにより、第2実施形態の車両システム2は、例えば、運転者が存在するタクシーやバス等に適用することができる。 As described above, according to the second embodiment, the vehicle control system can easily realize carpooling with respect to a vehicle for manual driving. Thereby, the vehicle system 2 of the second embodiment can be applied to, for example, a taxi or a bus in which a driver exists.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1、2…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、31…車内用機器、32…車外用ディスプレイ、33…車外用スピーカ、50…ナビゲーション装置、60…MPU、70…車両センサ、80…運転操作子、90…車室内カメラ、100…自動運転制御ユニット、120…第1制御部、121…外界認識部、122…自車位置認識部、123…行動計画生成部、140…第2制御部、141…走行制御部、150、650…車内状況取得部、160、660…インターフェース制御部、170、670…乗車希望者判定部、180、680…相乗り精算部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、400…端末装置、500…サーバ装置、600…運転制御ユニット、M…車両 1, 2 ... Vehicle system, 10 ... Camera, 12 ... Radar device, 14 ... Finder, 16 ... Object recognition device, 20 ... Communication device, 30 ... HMI, 31 ... In-vehicle equipment, 32 ... External display, 33 ... Car External speaker, 50 ... Navigation device, 60 ... MPU, 70 ... Vehicle sensor, 80 ... Driving operator, 90 ... Vehicle interior camera, 100 ... Automatic driving control unit, 120 ... First control unit, 121 ... External world recognition unit, 122 ... Vehicle position recognition unit, 123 ... Action plan generation unit, 140 ... Second control unit, 141 ... Travel control unit, 150, 650 ... Vehicle status acquisition unit, 160, 660 ... Interface control unit, 170, 670 ... Ride request Person determination unit, 180, 680 ... Shared settlement unit, 200 ... Driving drive force output device, 210 ... Brake device, 220 ... Steering device, 400 ... Terminal device, 500 ... Server device, 600 ... Operation control unit, M ... Vehicle

Claims (9)

車外に向けて情報を出力する出力部と、
車室内を撮像する車室内カメラと、
前記車室内カメラにより撮像された画像に含まれる顔に関する情報に基づいた前記車室内に存在する座席に着座する乗員の位置および性別を含む情報と、車両に設定される車内装備に関する情報とを車内状況として取得する車内状況取得部と、
前記車内状況取得部により取得された車内状況および前記車両に乗り込み可能か否かを示す情報を、前記出力部に出力させる制御部と、
を備える車両制御システム。
An output unit that outputs information to the outside of the vehicle,
An interior camera that captures the interior of the vehicle and an interior camera
And information including the position and sex of the occupant seated on the seat that is present before Symbol passenger compartment based on the information relating to a face included in the image captured by the vehicle interior camera, and information about the vehicle equipment is set to the vehicle a vehicle condition acquisition unit that acquires a vehicle status,
Information indicating whether is possible or not boarded the vehicle situation and the vehicle acquired by the vehicle condition acquisition unit, a control unit to output to the output unit,
Vehicle control system with.
前記車内状況取得部は、前記車室内カメラにより撮像された画像に含まれる顔領域に基づいて、前記車室内に存在する複数の座席のうち、何れかに着座する乗員の位置を取得すると共に、前記画像に含まれる前記乗員の髪型、服装、顔の形状、および色のうち少なくとも1つに基づいて、前記乗員の性別を推定する、
請求項1に記載の車両制御システム。
Based on the face area included in the image captured by the vehicle interior camera, the vehicle interior condition acquisition unit acquires the position of the occupant seated in any of the plurality of seats existing in the vehicle interior, and at the same time, obtains the position of the occupant. The gender of the occupant is estimated based on at least one of the occupant's hairstyle, clothing, face shape, and color included in the image.
The vehicle control system according to claim 1.
前記車両の周辺にいる人物を認識する認識部と、
前記認識部により認識された人物が乗車に不適格か否かを判定する判定部と、を更に備え、
前記判定部は、前記認識部により認識された人物が乗車希望者であるか否かを判定し、前記乗車希望者であると判定された場合に、前記乗車希望者の人物情報に基づいて、前記乗車希望者が乗車に不適格な人物か否かを判定する、
請求項1または2に記載の車両制御システム。
A recognition unit that recognizes people around the vehicle,
Further provided with a determination unit for determining whether or not the person recognized by the recognition unit is ineligible for boarding.
The determination unit determines whether or not the person recognized by the recognition unit is a person who wants to board, and when it is determined that the person is a person who wants to board, the determination unit is based on the person information of the person who wants to board. Determining whether or not the person who wishes to board the vehicle is ineligible for boarding.
The vehicle control system according to claim 1 or 2.
前記車両の周辺を撮像する撮像部を更に備え、
前記判定部は、前記撮像部により撮像された画像を解析し、解析結果として得られる前記画像に含まれる前記乗車希望者の動作に基づいて、前記乗車希望者が乗車に不適格な人物か否かを判定する、
請求項3に記載の車両制御システム。
Further provided with an imaging unit that images the surroundings of the vehicle,
The determination unit analyzes the image captured by the imaging unit, and based on the movement of the ride applicant included in the image obtained as the analysis result, whether or not the ride applicant is ineligible for boarding. To judge whether
The vehicle control system according to claim 3.
前記判定部は、すでに乗車している乗員が設定した相乗りしたくない人物情報を取得し、取得した人物情報と、前記認識部により認識された前記乗車希望者の人物情報とに基づいて、前記乗車希望者が乗車に不適格な人物か否かを判定する、
請求項3または4に記載の車両制御システム。
The determination unit acquires the person information set by the occupant who is already on board and does not want to ride together, and based on the acquired person information and the person information of the person who wants to ride the vehicle recognized by the recognition unit. Determine if the person wishing to board is an ineligible person for boarding,
The vehicle control system according to claim 3 or 4.
前記車両の乗員に対して情報を出力するインターフェース制御部を備え、
前記インターフェース制御部は、前記判定部により前記認識部により認識された人物が乗車希望者であると判定されたタイミングで、前記乗員に前記乗車希望者を相乗りさせても良いか否かを問い合わせる出力を行い、
前記判定部は、前記出力に対する前記乗員の入力結果に基づいて、前記乗車希望者が乗車に不適格か否かを判定する、
請求項3から5のうち、いずれか1項に記載の車両制御システム。
It is equipped with an interface control unit that outputs information to the occupants of the vehicle.
The interface control unit is an output inquiring whether or not the occupant may ride the ride applicant together at the timing when the determination unit determines that the person recognized by the recognition unit is a ride applicant. And
The determination unit determines whether or not the applicant for boarding is ineligible for boarding based on the input result of the occupant with respect to the output.
The vehicle control system according to any one of claims 3 to 5.
前記車両は、前記判定部により前記人物が乗車に不適格と判定された場合に、前記人物の乗車を拒否する制御を行う、
請求項3から6のうち、いずれか1項に記載の車両制御システム。
The vehicle controls to refuse the boarding of the person when the determination unit determines that the person is not suitable for boarding.
The vehicle control system according to any one of claims 3 to 6.
車載コンピュータが、
車室内カメラにより車室内を撮像し、
撮像した画像に含まれる顔に関する情報に基づいた前記車室内に存在する座席に着座する乗員の位置および性別を含む情報と、車両に設定される車内装備に関する情報とを車内状況として取得し、
取得した前記車内状況および前記車両に乗り込み可能か否かを示す情報を、出力部により車外に向けて出力する、
車両制御方法。
In-vehicle computer
The interior of the vehicle is imaged by the camera inside the vehicle.
Acquires the information including location and gender of occupant seated on the seat that is present before Symbol passenger compartment based on the information relating to a face included in the captured image and information about vehicle equipment is set to the vehicle as a vehicle status,
Acquired the vehicle status and information indicating whether available or not boarded on the vehicle, and outputs toward the outside by the output unit,
Vehicle control method.
車載コンピュータに、
車室内カメラにより車室内を撮像させ、
撮像された画像に含まれる顔に関する情報に基づいた前記車室内に存在する座席に着座する乗員の位置および性別を含む情報と、車両に設定される車内装備に関する情報とを車内状況として取得させ、
取得された前記車内状況および前記車両に乗り込み可能か否かを示す情報を、出力部により車外に向けて出力させる、
車両制御プログラム。
For in-vehicle computers
The interior of the vehicle is imaged by the camera inside the vehicle.
And information including the position and sex of the occupant seated on the seat that is present before Symbol passenger compartment based on the information relating to a face included in the captured image, to acquire the information about the vehicle equipment is set to the vehicle as a vehicle status ,
Information indicating whether is possible or not boarded on the acquired vehicle conditions and the vehicle, is output to the outside by the output unit,
Vehicle control program.
JP2019184769A 2018-11-05 2019-10-07 Vehicle control systems, vehicle control methods, and vehicle control programs Active JP6916852B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019184769A JP6916852B2 (en) 2018-11-05 2019-10-07 Vehicle control systems, vehicle control methods, and vehicle control programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018207884A JP6627128B2 (en) 2018-11-05 2018-11-05 Vehicle control system, vehicle control method, and vehicle control program
JP2019184769A JP6916852B2 (en) 2018-11-05 2019-10-07 Vehicle control systems, vehicle control methods, and vehicle control programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018207884A Division JP6627128B2 (en) 2018-11-05 2018-11-05 Vehicle control system, vehicle control method, and vehicle control program

Publications (2)

Publication Number Publication Date
JP2020098570A JP2020098570A (en) 2020-06-25
JP6916852B2 true JP6916852B2 (en) 2021-08-11

Family

ID=71106031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019184769A Active JP6916852B2 (en) 2018-11-05 2019-10-07 Vehicle control systems, vehicle control methods, and vehicle control programs

Country Status (1)

Country Link
JP (1) JP6916852B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7306331B2 (en) 2020-06-05 2023-07-11 いすゞ自動車株式会社 Rotation restriction control device, rotation restriction device and vehicle
JP7355050B2 (en) 2021-03-04 2023-10-03 トヨタ自動車株式会社 Vehicle control device, vehicle control method and program
CN113923355A (en) * 2021-09-30 2022-01-11 上海商汤临港智能科技有限公司 Vehicle, image shooting method, device, equipment and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07329639A (en) * 1994-06-06 1995-12-19 Mitsubishi Electric Corp Interior human body detecting device and vehicle equipment control device
JP2003271706A (en) * 2002-03-14 2003-09-26 Fujitsu Ltd Method, program, and apparatus for taxi sharing management
JP2007293530A (en) * 2006-04-24 2007-11-08 Nishiwaki Keisan Center:Kk Transportation fare decision method for transportation means and transportation fare decision device
JP2010237134A (en) * 2009-03-31 2010-10-21 Equos Research Co Ltd Destination providing system and navigation system
JP2016062414A (en) * 2014-09-19 2016-04-25 クラリオン株式会社 In-vehicle monitoring device and in-vehicle monitoring system
JP6464737B2 (en) * 2014-12-26 2019-02-06 日本電気株式会社 Prospective customer location information detection system, method and program
US11599833B2 (en) * 2016-08-03 2023-03-07 Ford Global Technologies, Llc Vehicle ride sharing system and method using smart modules

Also Published As

Publication number Publication date
JP2020098570A (en) 2020-06-25

Similar Documents

Publication Publication Date Title
JP6458792B2 (en) Vehicle control system, vehicle control method, and vehicle control program
CN111032469B (en) Estimating time to get on and off passengers for improved automated vehicle stop analysis
JP6648256B2 (en) Vehicle control system, vehicle control method, and vehicle control program
US20200262453A1 (en) Pick-up management device, pick-up control method, and storage medium
JP6646168B2 (en) Vehicle control system, vehicle control method, and vehicle control program
WO2018116409A1 (en) Vehicle contrl system, vehcle control method, and vehicle control program
CN110228472B (en) Vehicle control system, vehicle control method, and storage medium
WO2018116461A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6327424B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6676196B2 (en) Vehicle control system, vehicle control method, and vehicle control program
WO2018123014A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6846431B2 (en) Vehicle control systems, vehicle control methods, and vehicle control programs
JP2017207907A (en) Vehicle control system, communication system, vehicle control method, and vehicle control program
JP7032295B2 (en) Vehicle control systems, vehicle control methods, and programs
JP6916852B2 (en) Vehicle control systems, vehicle control methods, and vehicle control programs
WO2018142566A1 (en) Passage gate determination device, vehicle control system, passage gate determination method, and program
JP7236307B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP2019158646A (en) Vehicle control device, vehicle control method, and program
JP6627128B2 (en) Vehicle control system, vehicle control method, and vehicle control program
CN111932927B (en) Management device, management method, and storage medium
JP2020160705A (en) Vehicle control device, vehicle control method, and program
CN112319474A (en) Vehicle control device, vehicle control method, and storage medium
JP7079744B2 (en) Vehicle control system and vehicle control method
JP6874209B2 (en) Vehicle control systems, vehicle control methods, programs, and information processing equipment
JP2021098408A (en) Vehicle control device, vehicle control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210716

R150 Certificate of patent or registration of utility model

Ref document number: 6916852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150