JP2018030499A - Vehicle outside information providing device and vehicle outside information providing method - Google Patents
Vehicle outside information providing device and vehicle outside information providing method Download PDFInfo
- Publication number
- JP2018030499A JP2018030499A JP2016164958A JP2016164958A JP2018030499A JP 2018030499 A JP2018030499 A JP 2018030499A JP 2016164958 A JP2016164958 A JP 2016164958A JP 2016164958 A JP2016164958 A JP 2016164958A JP 2018030499 A JP2018030499 A JP 2018030499A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- outsider
- person
- driver
- call
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
開示の実施形態は、車外情報提供装置および車外情報提供方法に関する。 Embodiments disclosed herein relate to a vehicle outside information providing apparatus and a vehicle outside information providing method.
従来、車両を運転するドライバに対し、車両外部の情報を収集して車室内に提供する車外情報提供装置が知られている。たとえば、特許文献1には、車外の人物(以下、「車外者」と言う)が存在する領域を検出し、この領域を集音方向として車外音を収集し、車室内の乗員に出力する車外音提供装置が開示されている。 2. Description of the Related Art Conventionally, a vehicle outside information providing apparatus that collects information outside a vehicle and provides the information to the inside of a vehicle interior for a driver driving the vehicle is known. For example, Patent Document 1 detects an area where there is a person outside the vehicle (hereinafter referred to as “vehicle outsider”), collects outside sound using this area as a sound collection direction, and outputs the outside sound to a passenger in the vehicle interior. A sound providing apparatus is disclosed.
しかしながら、上述した従来技術を用いた場合、ドライバに対し意志を伝えたい車外者の存在をドライバに情報提供できないおそれがある。 However, when the above-described conventional technology is used, there is a possibility that the driver cannot be provided with information on the presence of an outsider who wants to convey his will to the driver.
たとえば、上述した車外音提供装置では、意志を伝えたいかを問わず、車外者のいる方向であればその方向を集音方向として車外音が提供されてしまうので、雑多となり、意志を伝えたい車外者からの声かけをドライバが聞き取れないおそれがある。 For example, in the above-described vehicle exterior sound providing device, regardless of whether or not it is desired to convey the will, the vehicle exterior sound is provided with the direction of sound collection as long as the vehicle is in the direction of the person outside the vehicle. The driver may not be able to hear the voice from outsiders.
また、一般に人は意志を伝えたい場合、声かけだけでなく、たとえば身振り手振りによってその意志を伝えたい旨を表す場合がある。したがって、ある車外者がその旨を身振り手振りのみによって表した場合、上述した車外音提供装置では、かかる車外者の存在をドライバに対し情報提供することができない。 In general, when a person wants to convey his / her will, it may indicate that he / she wants to convey his / her will, for example, by gestures. Therefore, when a certain outside person expresses that fact only by gesture gesture, the above-described outside sound providing device cannot provide information on the presence of the outside person to the driver.
実施形態の一態様は、上記に鑑みてなされたものであって、ドライバに対し意志を伝えたい車外者の存在をドライバに情報提供することができる車外情報提供装置および車外情報提供方法を提供することを目的とする。 One aspect of the embodiments has been made in view of the above, and provides an out-of-vehicle information providing apparatus and out-of-vehicle information providing method capable of providing information to the driver of the existence of an outside person who wants to convey his will to the driver. For the purpose.
実施形態の一態様に係る車外情報提供装置は、呼びかけ判定部と、報知部とを備える。前記呼びかけ判定部は、車外の人物を検出し、該人物が車内の搭乗者に対して呼びかけを行っているかを判定する。前記報知部は、前記呼びかけ判定部によって前記人物が前記呼びかけを行っていると判定された場合に、前記人物の存在を前記搭乗者に対して報知する。 The vehicle exterior information provision apparatus which concerns on the one aspect | mode of embodiment is provided with the call determination part and the alerting | reporting part. The call determination unit detects a person outside the vehicle and determines whether the person is calling the passenger in the vehicle. The notification unit notifies the passenger of the presence of the person when the call determination unit determines that the person is making the call.
実施形態の一態様によれば、ドライバに対し意志を伝えたい車外者の存在をドライバに情報提供することができる。 According to one aspect of the embodiment, it is possible to provide the driver with information on the presence of an outsider who wants to convey his will to the driver.
以下、添付図面を参照して、本願の開示する車外情報提供装置および車外情報提供方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, with reference to the accompanying drawings, embodiments of an outside information providing apparatus and an outside information providing method disclosed in the present application will be described in detail. In addition, this invention is not limited by embodiment shown below.
また、以下では、「車外者」は、単に車外にいる人物を指し、歩行しているかその場にとどまっているかを問わないものとする。また、以下では、かかる「車外者」がドライバに対し意志を伝えたい旨を表すことを「呼びかけ」と記載する。また、以下では、かかる「呼びかけ」は、声かけおよび身振り手振りを含むものとし、身振り手振りについては「ジェスチャ」と記載する。 In the following, the “outside vehicle” simply refers to a person outside the vehicle, regardless of whether he / she is walking or staying there. In the following, expressing that the “outside person” wants to convey the will to the driver is referred to as “call”. In the following, such “calling” includes a voice call and gesture gesture, and the gesture gesture is described as “gesture”.
また、以下では、本実施形態に係る車外情報提供方法の概要について図1A〜図1Eを用いて説明した後に、実施形態に係る車外情報提供方法を適用した車外情報提供システム1の車外情報提供装置10について、図2A〜図15を用いて説明する。 In the following, after describing the outline of the vehicle information providing method according to the present embodiment with reference to FIGS. 1A to 1E, the vehicle information providing apparatus 1 of the vehicle information providing system 1 to which the vehicle information providing method according to the embodiment is applied. 10 will be described with reference to FIGS. 2A to 15.
まず、本実施形態に係る車外情報提供方法の概要について図1A〜図1Eを用いて説明する。図1A〜図1Eは、実施形態に係る車外情報提供方法の概要説明図(その1)〜(その5)である。 First, the outline | summary of the information provision method outside a vehicle concerning this embodiment is demonstrated using FIG. 1A-FIG. 1E. FIG. 1A to FIG. 1E are schematic explanatory views (No. 1) to (No. 5) of the outside-vehicle information providing method according to the embodiment.
図1Aに示すように、ドライバDの運転する車両Cに対し、車外者Wが存在するものとする。そして、車外者Wは、ドライバDに対し、呼びかけを行っているものとする。かかる場合、車外者Wは、たとえば「待って!」などの声かけを行ったり、手を振るなどのジェスチャを行ったり、車両Cを追いかけたりなどの行動をとることが考えられる。すなわち、呼びかけには種々の態様が存在する。 As shown in FIG. 1A, it is assumed that an outsider W exists for a vehicle C driven by a driver D. Then, it is assumed that the vehicle outsider W is calling the driver D. In such a case, it is conceivable that the outside person W takes actions such as making a call such as “Wait!”, Performing a gesture such as waving a hand, or chasing the vehicle C. That is, there are various modes for calling.
なお、このような車外者Wの呼びかけをドライバDが認識していれば、ドライバDは車両Cを停車させることで車外者Wとコミュニケーションをとることができるが、図1Aに示すように、ドライバDは車両Cを運転する場合、通常その進行方向を注視するので、ドライバDは車外者Wの存在そのものを見落としてしまいやすい。車外者WがドライバDの死角となる位置にいれば尚更である。 If the driver D recognizes such a call from the outsider W, the driver D can communicate with the outsider W by stopping the vehicle C. However, as shown in FIG. When D drives the vehicle C, the driver D tends to overlook the presence of the outsider W because the driver usually watches the traveling direction. This is even more so if the vehicle outsider W is at a position where the driver D becomes a blind spot.
また、仮にドライバDが車外者Wの所在方向を視ていたとしても、ドライバDが漫然と運転していれば車外者Wの呼びかけを認識しないことも考えられる。 Further, even if the driver D looks at the direction of the outsider W, it is possible that the driver D does not recognize the call from the outsider W if he / she is driving casually.
そこで、本実施形態では、車外者Wに関し、まず車外者Wの存在を検出し、検出された車外者WがドライバDに対し呼びかけを行っているか否かを判定する「車外者呼びかけ判定」を行うこととした(ステップS1)。 Therefore, in the present embodiment, regarding the vehicle outsider W, first, the presence of the vehicle outsider W is detected, and “vehicle outsider call determination” is performed to determine whether or not the detected vehicle outsider W is calling the driver D. It was decided to carry out (step S1).
かかる「車外者呼びかけ判定」では、たとえば車外者Wの身体の向きや、顔の向き、ジェスチャ、移動ベクトル、音声など、車外者Wが表している種々の要素を解析して、車外者WがドライバDに対し呼びかけを行っているか否かを判定する。 In the “outside car call determination”, for example, the outside person W analyzes the various elements represented by the outside person W, such as the body direction, the face direction, the gesture, the movement vector, and the voice of the outside person W. It is determined whether or not a call is made to the driver D.
また、本実施形態では、ドライバDに関し、ドライバDが車外者Wの呼びかけを認識しているか否かを判定する「ドライバ認識判定」を行うこととした(ステップS2)。 In the present embodiment, regarding the driver D, “driver recognition determination” is performed to determine whether or not the driver D recognizes the call from the outsider W (step S2).
かかる「ドライバ認識判定」では、たとえばドライバDの顔の向きや、視線の向き、ドライバDの身体情報など、ドライバDの状態を表す種々の要素を解析して、ドライバDが車外者Wの呼びかけを認識しているか否かを判定する。 In such “driver recognition determination”, for example, the driver D analyzes the various elements representing the state of the driver D such as the face direction of the driver D, the direction of the line of sight, the physical information of the driver D, and the driver D calls the outsider W. It is determined whether or not it is recognized.
そして、本実施形態では、これら「車外者呼びかけ判定」、「ドライバ認識判定」の判定結果に基づき、ドライバDに対し、呼びかけを行っている車外者Wの存在を報知するか否かを判定する「報知判定」を行う(ステップS3)。ドライバDに対し、呼びかけを行っている車外者Wの存在を報知すると判定された場合、ドライバDへの報知が行われる(ステップS4)。 In the present embodiment, it is determined whether or not to notify the driver D of the presence of the outside person W who is calling based on the determination results of these “outside car call determination” and “driver recognition determination”. “Notification determination” is performed (step S3). When it is determined to notify the driver D of the presence of the outside person W who is calling, the driver D is notified (step S4).
これにより、ドライバDに対し呼びかけを行っている車外者Wの存在をドライバDに情報提供することができる。 As a result, it is possible to provide the driver D with information about the presence of the outside person W who is calling on the driver D.
なお、ドライバDへの報知は、呼びかけを行っている車外者Wの存在をドライバDが認識可能であればよく、音声出力、表示出力など、その形態は限定されない。また、ドライバDだけでなく、車外者Wに対し、ドライバDへ報知したことを報知してもよい。 The notification to the driver D is not limited as long as the driver D can recognize the presence of the outside person W who is calling, such as voice output and display output. Further, not only the driver D but also the outside person W may be notified that the driver D has been notified.
これにより、車外者Wは、たとえば車両Cを追いかけたりしていれば、その足を緩めることができ、負担をいち早く軽減できるうえ、車両Cが急停車する場合などには、車外者Wの安全を確保することができる。 Thus, for example, if the vehicle outsider W is chasing the vehicle C, his / her feet can be loosened, the burden can be reduced quickly, and the safety of the vehicle outsider W can be ensured when the vehicle C stops suddenly. Can be secured.
なお、上述した各ステップS1〜S4は、車両Cに搭載された車外情報提供装置10が実行することとなる。
In addition, each step S1-S4 mentioned above will be performed by the vehicle exterior
上述した本実施形態に係る車外情報提供方法は、様々な場面に適用することができる。たとえば図1Bに示すように、駐車スペースSPから出庫する車両Cに対し、駐車スペースSPまで追いかけて来て、ドライバDへ忘れ物の存在をアピールする車外者Wのいる「出庫時」の場面である。 The above-described vehicle information provision method according to the present embodiment described above can be applied to various scenes. For example, as shown in FIG. 1B, it is a scene of “when leaving” where there is an outside person W who follows the vehicle C leaving the parking space SP to the parking space SP and appeals to the driver D about the presence of leftovers. .
また、たとえば図1Cに示すように、停留所BS近辺に、発車するバスBのドライバDへ乗車アピールする車外者Wが存在する「停留所からのバス発車時」の場面である。 Further, for example, as shown in FIG. 1C, it is a scene of “when the bus departs from the bus stop” where there is an outsider W who appeals to the driver D of the bus B to depart in the vicinity of the bus stop BS.
また、たとえば図1Dに示すように、歩道からタクシーTのドライバDへ乗車アピールする車外者Wが存在する「タクシー走行時」の場面である。 Further, for example, as shown in FIG. 1D, it is a scene of “during taxi travel” where there is an outside person W who appeals to the driver D of the taxi T from the sidewalk.
また、たとえば図1Eに示すように、ドライバDへ自身の存在をアピールする待ち合わせ人である車外者Wが存在する「待ち合わせ時」の場面である。 Further, for example, as shown in FIG. 1E, it is a scene of “waiting” where an outsider W who is a meeting person who appeals to the driver D about his / her presence exists.
以下、上述した車外情報提供方法を適用した車外情報提供システム1の車外情報提供装置10について、さらに具体的に説明する。なお、以下では、第1の実施形態について、図1Bに示した「出庫時」を例に挙げて、第2の実施形態について、図1Cに示した「停留所からのバス発車時」を例に挙げて、第3の実施形態について、図1Dに示した「タクシー走行時」を例に挙げて、第4の実施形態について、図1Eに示した「待ち合わせ時」を例に挙げて、順次説明する。
Hereinafter, the outside
(第1の実施形態)
図2Aは、第1の実施形態に係る車外情報提供装置10のブロック図である。図2Bは、第1の実施形態に係る車外者呼びかけ判定部11aのブロック図である。図2Cは、第1の実施形態に係るドライバ認識判定部11cのブロック図である。
(First embodiment)
FIG. 2A is a block diagram of the external
なお、図2A〜図2Cでは、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。 In FIG. 2A to FIG. 2C, only constituent elements necessary for explaining the features of the present embodiment are represented by functional blocks, and descriptions of general constituent elements are omitted.
換言すれば、図2A〜図2Cに図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。なお、図2A〜図2C以外に後ほど示す各ブロック図でも、この点は同様である。 In other words, each component illustrated in FIGS. 2A to 2C is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or a part thereof is functionally or physically distributed in arbitrary units according to various loads or usage conditions.・ It can be integrated and configured. In addition, this point is the same also in each block diagram shown later besides FIG. 2A-FIG. 2C.
まず、図2Aに示すように、車外情報提供システム1は、外部用カメラ2と、レーダ3と、通信端末4と、マイク5と、振動センサ6と、車両情報センサ7と、内部用カメラ8と、身体情報センサ9と、車外情報提供装置10と、報知部20とを含む。
First, as shown in FIG. 2A, the outside information providing system 1 includes an external camera 2, a
外部用カメラ2は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えて、車両Cのたとえば前部、後部および両側部などに複数個設けられ、撮像素子によって撮像した車両C周辺の撮像情報を車外情報提供装置10へ出力する。
The external camera 2 includes an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). A plurality of external cameras 2 are provided, for example, at the front, rear, and both sides of the vehicle C. The imaging information around the vehicle C is output to the outside
レーダ3は、車両Cに搭載されたたとえばミリ波レーダや超音波センサであって、車両C周辺に存在する車外者W、障害物などの物標情報を車外情報提供装置10へ出力する。通信端末4は、車外情報提供装置10と通信接続可能な端末装置であって、たとえば車外者Wの携帯するスマートフォンなどである。
The
マイク5は、車両Cに搭載されて車両C周辺の音声を集音し、集音した音声情報を車外情報提供装置10へ出力する。振動センサ6は、たとえば車両Cの車体後部などに搭載され、車両Cを追いかけて来た車外者Wがたとえば車体後部を叩いたりした際の振動情報を車外情報提供装置10へ出力する。
The
車両情報センサ7は、車両Cの運行に関する車速や舵角といった情報を検出するデバイスであり、たとえば車速センサや舵角センサなどを含み、これらを用いて検出した車両Cの運行に関する車両情報を車外情報提供装置10へ出力する。
The vehicle information sensor 7 is a device that detects information such as a vehicle speed and a rudder angle relating to the operation of the vehicle C, and includes, for example, a vehicle speed sensor and a rudder angle sensor. The information is output to the
内部用カメラ8は、たとえば車両Cの運転席のステアリングコラムの上部に、ドライバDの顔を撮像領域に含むようにして設けられる。また、たとえば内部用カメラ8は、ドライバDの視線方向が検出可能となるように、赤外線カメラおよび赤外線LEDのセットで設けられる。内部用カメラ8は、撮像したドライバDの顔などの撮像情報を車外情報提供装置10へ出力する。
The internal camera 8 is provided, for example, above the steering column of the driver's seat of the vehicle C so that the face of the driver D is included in the imaging region. For example, the internal camera 8 is provided as a set of an infrared camera and an infrared LED so that the line-of-sight direction of the driver D can be detected. The internal camera 8 outputs imaging information such as the face of the driver D that has been imaged to the vehicle outside
身体情報センサ9は、車両Cの運転席周辺に設けられ、ドライバDの身体情報、たとえばドライバDの脳波や脈拍などを検出可能に設けられる。身体情報センサ9は、検出した身体情報を車外情報提供装置10へ出力する。
The
報知部20は、ドライバDまたは車外者Wへの報知を可能とする各種デバイスであって、ドライバDとしては、たとえば車両Cの車室内に搭載されたナビゲーション装置などのディスプレイや、車載スピーカなどがある。また、車外者W向けとしては、ブレーキランプやハザードランプ、クラクションなどがある。 The notification unit 20 is various devices that enable notification to the driver D or the outside person W. As the driver D, for example, a display such as a navigation device mounted in the passenger compartment of the vehicle C, an in-vehicle speaker, and the like. is there. Moreover, there are a brake lamp, a hazard lamp, a horn, and the like for the outside person W.
車外情報提供装置10は、制御部11と、記憶部12とを備える。制御部11は、車外者呼びかけ判定部11aと、報知判定部11bと、ドライバ認識判定部11cと、報知情報生成部11dとを備える。
The vehicle exterior
記憶部12は、ハードディスクドライブや不揮発性メモリ、レジスタといった記憶デバイスであって、ジェスチャパターン情報12aと、音声パターン情報12bと、振動パターン情報12cとを記憶する。
The storage unit 12 is a storage device such as a hard disk drive, a nonvolatile memory, or a register, and stores
制御部11は、車外情報提供装置10全体を制御する。車外者呼びかけ判定部11aは、外部用カメラ2、レーダ3、通信端末4、マイク5、振動センサ6などから出力された各種情報に基づき、車外者WがドライバDに対し呼びかけを行っているか否かを判定し、判定結果を報知判定部11bへ出力する。
The
より具体的には、図2Bに示すように、車外者呼びかけ判定部11aは、車外者検出部11aaと、車外者向き解析部11abと、車外者顔向き解析部11acと、車外者ジェスチャ解析部11adと、車外者移動ベクトル解析部11aeと、車外者音声解析部11afと、車外者振動解析部11agとを備える。 More specifically, as shown in FIG. 2B, the outsider call determination unit 11a includes an outsider detection unit 11aa, an outsider orientation analysis unit 11ab, an outsider face orientation analysis unit 11ac, and an outsider gesture analysis unit. 11ad, outsider movement vector analysis part 11ae, outsider voice analysis part 11af, and outsider vibration analysis part 11ag.
車外者検出部11aaは、外部用カメラ2やレーダ3、通信端末4からの各種情報に基づき、車両C周辺に存在する車外者Wを検出する。
The vehicle outsider detection unit 11aa detects a vehicle outsider W existing around the vehicle C based on various information from the external camera 2, the
車外者向き解析部11abは、検出された車外者Wのそれぞれにつき、たとえば外部用カメラ2からの撮像情報に基づいて車外者Wの身体の向きを解析し、解析結果を車外者呼びかけ判定部11aへ返す。車外者顔向き解析部11acは、検出された車外者Wのそれぞれにつき、たとえば外部用カメラ2からの撮像情報に基づいて車外者Wの顔の向きを解析し、解析結果を車外者呼びかけ判定部11aへ返す。 For each detected outside person W, the outside person direction analyzing unit 11ab analyzes the direction of the body of the outside person W based on, for example, imaging information from the external camera 2, and the analysis result is determined as the outside person calling determination unit 11a. Return to. For each detected outsider W, the outsider face orientation analyzing unit 11ac analyzes the orientation of the face of the outsider W based on, for example, imaging information from the external camera 2, and the analysis result is used as an outsider call determining unit. Return to 11a.
車外者ジェスチャ解析部11adは、たとえば外部用カメラ2からの撮像情報およびジェスチャパターン情報12aに基づき、車外者Wの行っているジェスチャを解析し、解析結果を車外者呼びかけ判定部11aへ返す。車外者ジェスチャ解析部11adは、たとえば外部用カメラ2からの撮像情報とジェスチャパターン情報12aとの比較によるパターンマッチングによって、車外者Wの行っているジェスチャを解析する。
The outsider gesture analysis unit 11ad analyzes a gesture performed by the outsider W based on, for example, the imaging information from the external camera 2 and the
ここで、車外者ジェスチャ解析部11adが実行する車外者ジェスチャ解析処理の一例について、図3A〜図3Cを用いて説明しておく。図3Aは、パターンマッチングのための車外者Wの特徴点の規定例を示す図である。図3Bは、ジェスチャパターン情報12aの一例を示す図である。図3Cは、車外者ジェスチャ解析処理の変形例を示す図である。
Here, an example of an outsider gesture analysis process executed by the outsider gesture analysis unit 11ad will be described with reference to FIGS. 3A to 3C. FIG. 3A is a diagram illustrating an example of defining feature points of an outsider W for pattern matching. FIG. 3B is a diagram illustrating an example of the
ジェスチャのパターンマッチングを行うに際しては、たとえば車外者Wが身体を動かした場合に、その姿勢や向きを規定することとなる各点を特徴点として予め定めておくことが好ましい。 When performing pattern matching of gestures, for example, when the outside person W moves his / her body, it is preferable to preliminarily determine each point that will define the posture and orientation as a feature point.
たとえば図3Aには、車外者Wの動きを規定する特徴点として、特徴点j1〜j20の20個を規定した例を示している。なお、特徴点j1〜j4は順に、頭部、肩部中央、旋回部、尻部中央にそれぞれ対応する。また、特徴点j5〜j8は順に、右手先、右手首、右肘、肩部右にそれぞれ対応する。 For example, FIG. 3A shows an example in which 20 feature points j1 to j20 are defined as the feature points that define the movement of the outsider W. Note that the feature points j1 to j4 correspond to the head, the shoulder center, the turning portion, and the hip center in order. Further, the feature points j5 to j8 correspond to the right hand tip, the right wrist, the right elbow, and the shoulder right, respectively, in order.
また、特徴点j9〜j12は順に、尻部右、右膝、右足首、右足先にそれぞれ対応する。また、特徴点j13〜j16は順に、左手先、左手首、左肘、肩部左にそれぞれ対応する。また、特徴点j17〜j20は順に、尻部左、左膝、左足首、左足先にそれぞれ対応する。 Also, the feature points j9 to j12 correspond to the right hip, the right knee, the right ankle, and the right foot, respectively, in order. Further, the feature points j13 to j16 correspond to the left hand tip, the left wrist, the left elbow, and the left shoulder part in order. Also, the feature points j17 to j20 correspond to the left hip, the left knee, the left ankle, and the left foot, respectively, in order.
そして、図3Bに示すように、ジェスチャパターン情報12aには、様々なジェスチャのパターン情報が予め登録される。ジェスチャパターン情報12aはたとえば、「ジェスチャ種別」と、「テンプレート画像」と、「特徴点画像」とを関連付けた情報である。
As shown in FIG. 3B, various gesture pattern information is registered in advance in the
なお、図3Bには例として、車外者WがバスBやタクシーTに乗車したい場合の「乗車アピール」と、車外者Wが自身の存在位置をアピールしたい場合の「存在アピール」を示した。「テンプレート画像」や「特徴点画像」は、静止画であってもよいし、動画であってもよい。 FIG. 3B shows, as an example, “ride appeal” when the outside person W wants to get on the bus B or taxi T, and “existence appeal” when the outside person W wants to appeal his / her own location. The “template image” and “feature point image” may be a still image or a moving image.
車外者ジェスチャ解析部11adは、たとえば外部用カメラ2からの撮像情報およびその撮像情報から抽出した特徴点j1〜j20と、ジェスチャパターン情報12aとの比較を行うことによって、車外者Wが行っているジェスチャを解析する。そして、ジェスチャパターン情報12aにマッチングするものがあればそのジェスチャ種別を車外者呼びかけ判定部11aへ返し、マッチングするものがなければその旨を返す。
The outsider gesture analysis unit 11ad performs the outsider W by comparing, for example, the imaging information from the external camera 2 and the feature points j1 to j20 extracted from the imaging information with the
なお、各特徴点j1〜j20の比較にあたっては、各特徴点j1〜j20の移動ベクトルや移動速度などまでマッチングさせて解析することが好ましい。ジェスチャの態様によっては、意志を伝えたいものなのか、単なる挨拶程度のものなのか、判別がつきにくい場合があるためである。各特徴点j1〜j20の移動ベクトルおよび移動速度までマッチングさせることによって、こうした判別のつきにくいジェスチャまで解析することが可能となる。 When comparing the feature points j1 to j20, it is preferable to perform analysis by matching the movement vectors and movement speeds of the feature points j1 to j20. This is because, depending on the mode of the gesture, it may be difficult to determine whether it is intended to convey a will or just a greeting. By matching up to the movement vectors and movement speeds of the feature points j1 to j20, it is possible to analyze such gestures that are difficult to discriminate.
なお、変形例として、図3Cに示すように、予め登録されたジェスチャパターン情報12aを入力とする学習部11eを備えることとしたうえで、かかる学習部11eにより公知の機械学習を実行して予めジェスチャ判別モデル12dを生成しておき、車外者ジェスチャ解析部11adはかかるジェスチャ判別モデル12dにより車外者Wのジェスチャを判別してもよい。これにより、パターンマッチングに逐一かかる処理負荷を軽減し、処理速度の向上に資することができる。
As a modified example, as shown in FIG. 3C, a learning unit 11e that receives pre-registered
図2Bの説明に戻り、つづいて車外者移動ベクトル解析部11aeについて説明する。車外者移動ベクトル解析部11aeは、たとえば外部用カメラ2からの撮像情報およびレーダ3からの物標情報に基づき、車外者Wそれぞれについての移動ベクトルを解析し、解析結果を車外者呼びかけ判定部11aへ返す。
Returning to the description of FIG. 2B, the vehicle outsider movement
車外者音声解析部11afは、マイク5からの音声情報に基づき、車外者Wそれぞれの発している音声を解析し、解析結果を車外者呼びかけ判定部11aへ返す。
The outsider voice analysis unit 11af analyzes the voices uttered by each outsider W based on the voice information from the
ここで、車外者音声解析部11afが実行する車外者音声解析処理の一例について、図3Dを用いて説明しておく。図3Dは、音声パターン情報12bの一例を示す図である。 Here, an example of the outsider voice analysis process executed by the outsider voice analysis unit 11af will be described with reference to FIG. 3D. FIG. 3D is a diagram illustrating an example of the audio pattern information 12b.
車外者音声解析部11afは、マイク5からの音声情報と、音声パターン情報12bとの比較を行うことによって車外者Wの発している音声を解析する。図3Dに示したように、音声パターン情報12bは、呼びかけの場面においてよく用いられる音声の「音声種別」と「文字情報」とを関連付けた情報である。
The outsider voice analysis unit 11af analyzes the voice generated by the outsider W by comparing the voice information from the
車外者音声解析部11afは、たとえばマイク5からの音声情報をテキストへ変換し、かかるテキストの一部に音声パターン情報12bの「文字情報」に一致するものがあれば、その「文字情報」に関連付けられた「音声種別」を車外者呼びかけ判定部11aへ返し、一致するものがなければその旨を車外者呼びかけ判定部11aへ返す。
The outsider voice analysis unit 11af converts, for example, voice information from the
音声をテキストで比較することにより、車外者Wの老若男女を問わず、また、音声に加わっている抑揚などを排して、単純に音声が伝えようとしている内容を解析することができる。 By comparing the voice with text, it is possible to simply analyze the content that the voice is trying to convey, regardless of age or gender of the outside person W, or by removing the inflection added to the voice.
図2Bの説明に戻り、つづいて車外者振動解析部11agについて説明する。車外者振動解析部11agは、振動センサ6からの振動情報と、車外者Wがたとえば呼びかけのために車体後部を叩いたりした場合などの振動パターンが予め登録された振動パターン情報12cとを比較することによって、振動情報が車外者Wの呼びかけによるものかを解析し、解析結果を車外者呼びかけ判定部11aへ返す。
Returning to the description of FIG. 2B, the vehicle exterior vibration analysis unit 11ag will be described. The outsider vibration analysis unit 11ag compares the vibration information from the vibration sensor 6 with the
車外者呼びかけ判定部11aは、車外者向き解析部11ab、車外者顔向き解析部11ac、車外者ジェスチャ解析部11ad、車外者移動ベクトル解析部11ae、車外者音声解析部11afおよび車外者振動解析部11agそれぞれの解析結果に基づき、車外者Wにより呼びかけが行われているか否かを判定する。 The vehicle exterior call determination unit 11a includes a vehicle exterior direction analysis unit 11ab, a vehicle exterior face orientation analysis unit 11ac, a vehicle exterior gesture analysis unit 11ad, a vehicle exterior movement vector analysis unit 11ae, a vehicle exterior voice analysis unit 11af, and a vehicle exterior vibration analysis unit. Based on the analysis results of 11ag, it is determined whether or not a call is made by the outside person W.
たとえば、車外者呼びかけ判定部11aは、上記したそれぞれの解析結果のうち、少なくともいずれかが車外者Wが呼びかけを行っていることを示すものであれば、車外者Wの呼びかけありと判定する。または、車外者呼びかけ判定部11aは、すべての解析結果が呼びかけを行っていることを示すものである場合に、車外者Wの呼びかけありと判定してもよい。 For example, the outsider call determination unit 11a determines that there is a call from the outsider W if at least one of the above analysis results indicates that the outsider W is calling. Alternatively, the outsider call determination unit 11a may determine that there is a call from the outsider W when all the analysis results indicate that a call is being made.
この他にも、車外者呼びかけ判定部11aは、車外者向き解析部11ab、車外者顔向き解析部11ac、車外者ジェスチャ解析部11ad、車外者移動ベクトル解析部11ae、車外者音声解析部11afおよび車外者振動解析部11agにより解析された車外者Wを表している種々の要素をパラメータとする評価モデルに基づき、車外者Wを評価することとしてもよい。かかる変形例については図4Bを用いた説明で後述する。 In addition, the outsider call determination unit 11a includes an outsider direction analysis unit 11ab, an outsider face direction analysis unit 11ac, an outsider gesture analysis unit 11ad, an outsider movement vector analysis unit 11ae, an outsider voice analysis unit 11af, and The vehicle outsider W may be evaluated based on an evaluation model using various elements representing the vehicle outsider W analyzed by the vehicle outside vibration analysis unit 11ag as parameters. Such a modification will be described later with reference to FIG. 4B.
図2Aの説明に戻り、つづいてドライバ認識判定部11cについて説明する。ドライバ認識判定部11cは、内部用カメラ8、身体情報センサ9などから出力された各種情報に基づき、ドライバDが車外者Wの呼びかけを認識しているか否かを判定し、判定結果を報知判定部11bへ出力する。
Returning to the description of FIG. 2A, the driver
より具体的には、図2Cに示すように、ドライバ認識判定部11cは、ドライバ顔向き解析部11caと、ドライバ視線解析部11cbと、ドライバ身体情報解析部11ccとを備える。
More specifically, as shown in FIG. 2C, the driver
ドライバ顔向き解析部11caは、たとえば内部用カメラ8からの撮像情報に基づいてドライバDの顔の向きを解析し、解析結果をドライバ認識判定部11cへ返す。ドライバ視線解析部11cbは、たとえば内部用カメラ8からの撮像情報に基づいてドライバDの視線方向を解析し、解析結果をドライバ認識判定部11cへ返す。
The driver face orientation analysis unit 11ca analyzes the face direction of the driver D based on, for example, imaging information from the internal camera 8, and returns the analysis result to the driver
たとえばドライバ視線解析部11cbは、赤外線LEDで照らしたドライバDの顔を赤外線カメラで撮像することによって得られる赤外画像中の瞳孔と、眼球上に生じる赤外照明反射像との位置関係に基づき、ドライバDの視線方向を解析することができる。 For example, the driver line-of-sight analysis unit 11cb is based on the positional relationship between a pupil in an infrared image obtained by capturing an image of the face of the driver D illuminated with an infrared LED with an infrared camera and an infrared illumination reflection image generated on the eyeball. The line-of-sight direction of the driver D can be analyzed.
ドライバ身体情報解析部11ccは、たとえば身体情報センサ9からの身体情報に基づいてドライバDの身体情報を解析し、解析結果をドライバ認識判定部11cへ返す。解析内容は、たとえばドライバDが漫然と運転している状態であるかといった内容である。これにより、ドライバDの覚醒状態や体調を解析することができ、ドライバ認識判定部11cにおける精度向上に資することができる。
The driver physical information analysis unit 11cc analyzes the physical information of the driver D based on the physical information from the
ドライバ認識判定部11cは、ドライバ顔向き解析部11ca、ドライバ視線解析部11cbおよびドライバ身体情報解析部11ccそれぞれの解析結果に基づき、ドライバDが車外者Wの呼びかけを認識しているか否かを判定する。
The driver
たとえば、ドライバ認識判定部11cは、上記したそれぞれの解析結果のうち、少なくともいずれかがドライバDが車外者Wの呼びかけを認識していることを示すものであれば、ドライバDの認識ありと判定する。または、ドライバ認識判定部11cは、すべての解析結果が呼びかけを認識していることを示すものである場合に、ドライバDの認識ありと判定してもよい。
For example, the driver
この他にも、車外者呼びかけ判定部11aについて既に述べたように、ドライバ認識判定部11cは、ドライバ顔向き解析部11ca、ドライバ視線解析部11cbおよびドライバ身体情報解析部11ccにより解析されたドライバDの状態を表す種々の要素をパラメータとする評価モデルに基づき、ドライバDを評価することとしてもよい。
In addition, as already described with respect to the outsider call determination unit 11a, the driver
ここで、車外者呼びかけ判定部11aおよびドライバ認識判定部11cのかかる変形例について説明する。まず、車外者呼びかけ判定部11aから説明する。車外者呼びかけ判定部11aは、車外者Wを表している種々の要素をパラメータとする評価モデルに基づき、車外者Wを評価する。
Here, the modified example of the vehicle outsider call determination part 11a and the driver
具体的には、車外者呼びかけ判定部11aは、例えば下記式(1)に示す回帰式を用いて車外者Wの評価スコアyを演算する評価モデルを有する。 Specifically, the outsider call determination unit 11a has an evaluation model that calculates the evaluation score y of the outsider W using, for example, a regression equation represented by the following equation (1).
y = a1・x1 + a2・x2 + ・・・ +an・xn ・・・ (1) y = a 1 · x 1 + a 2 · x 2 + ... + a n · x n (1)
上記式(1)のうち、an(nは任意の数)は係数であり、xnは素性(説明変数)である。まず、車外者呼びかけ判定部11aは、上述した車外者向き解析部11ab、車外者顔向き解析部11ac、車外者ジェスチャ解析部11ad、車外者移動ベクトル解析部11ae、車外者音声解析部11afおよび車外者振動解析部11agにより解析された解析結果それぞれに基づく、呼びかけを行っている車外者Wに対する素性を求める。 In the above formula (1), a n (n is an arbitrary number) is a coefficient, and x n is a feature (explanatory variable). First, the outsider call determination unit 11a includes the above-described outsider direction analysis unit 11ab, outsider face direction analysis unit 11ac, outsider gesture analysis unit 11ad, outsider movement vector analysis unit 11ae, outsider voice analysis unit 11af, and outside the vehicle. Based on each analysis result analyzed by the person vibration analysis unit 11ag, a feature for the outside person W who is calling is obtained.
例えば、呼びかけを行っている車外者Wを正例とする場合、呼びかけを行っている車外者Wの特徴ベクトルを有する場合には「xn」=「1」となり、有しない場合には「xn」=「0」となる。また、xnの重み値となるanは、上記式(1)による呼びかけを行っている車外者Wを正例とした線形モデルを学習することで調整される。 For example, when the outside person W who is calling is taken as a positive example, if the feature vector of the outside person W who is calling is included, “x n ” = “1”; n ”=“ 0 ”. Further, a n as a weight value of x n may be adjusted by learning a linear model with positive examples outside the vehicle's W are subjected to interrogation by the formula (1).
例えば、車外者呼びかけ判定部11aは、上記式(1)のanをパラメータとし、SVM(Support Vector Machine)のようなパターン識別機を用いたサポートベクタ回帰などの回帰分析手法によりanの重みを調整する。 For example, outside party call determination unit 11a, a a n in formula (1) as a parameter, the weight of a n by regression analysis techniques, such as support vector regression using pattern recognition machine, such as of SVM (Support Vector Machine) Adjust.
なお、ここでは、呼びかけを行っている車外者Wを正例とする例を挙げたが、呼びかけを行っていない車外者Wを正例とすることによって呼びかけを行っている車外者Wを抽出してもよい。また、車外者呼びかけ判定部11aの有する評価モデルは、上述した評価モデルに限定されるものではない。 Here, an example has been given in which the outsider W who is calling is a positive example, but the outsider W who is calling is extracted by taking the outsider W who is not calling as a positive example. May be. Moreover, the evaluation model which the vehicle outsider call determination part 11a has is not limited to the above-described evaluation model.
(xnの具体例について)
次に、車外者呼びかけ判定部11aが呼びかけを行っている車外者Wを正例とした評価のために求められるxnの具体例を図4Aに示す。図4Aは、呼びかけを行っている車外者Wを正例とした場合の素性の具体例を示す図である。
(Specific examples of xn )
Next, FIG. 4A shows a specific example of xn required for the evaluation with the outsider W who is calling by the outsider call determination unit 11a as a positive example. FIG. 4A is a diagram illustrating a specific example of the feature when the outside person W who is calling is taken as a positive example.
なお、ここではn=1〜6までの例を挙げている。また、「対応項目」は、素性を求めるにあたりインプットとなる車外者向き解析部11ab、車外者顔向き解析部11ac、車外者ジェスチャ解析部11ad、車外者移動ベクトル解析部11ae、車外者音声解析部11afおよび車外者振動解析部11agの各解析結果である。 Here, examples where n = 1 to 6 are given. The “corresponding item” includes an outsider direction analysis unit 11ab, an outsider face direction analysis unit 11ac, an outsider gesture analysis unit 11ad, an outsider movement vector analysis unit 11ae, an outsider voice analysis unit, which are inputs for obtaining the feature. 11af and the analysis results of the vehicle exterior vibration analysis unit 11ag.
図4Aに示すように、たとえばx1は、車外者向き解析部11abの解析結果に基づき、「条件」を「正対位置から所定範囲内であるか否か」とすることによって求めることができる。すなわち、「車外者向き」が正対位置から所定範囲内であればx1は「1」となり、その他であればx1は「0」となる。 As shown in FIG. 4A, for example, x 1 can be obtained by setting “condition” as “whether it is within a predetermined range from the directly-facing position” based on the analysis result of the outside-orientation analysis unit 11ab. . That is, next if "outside party directed" is within a predetermined range from the confronting position x 1 is "1", if the other x 1 is "0".
これは、「車外者向き」が正対位置から所定範囲内であれば、呼びかけを行っている車外者Wであるとの推定が働きやすいことによる。 This is because if the “outside person direction” is within a predetermined range from the directly-facing position, it is easy to estimate that the outside person W is calling.
また、たとえばx2は、車外者顔向き解析部11acの解析結果に基づき、「条件」を「自車方向から所定範囲内であるか否か」とすることによって求めることができる。すなわち、「車外者顔向き」が自車方向から所定範囲内であればx2は「1」となり、その他であればx2は「0」となる。 Further, for example, x 2, based on the analysis result of the outside's face orientation analyzing section 11ac, the "condition" can be determined by a "whether the vehicle direction is within a predetermined range." That is, the if "outside who face orientation" is within a predetermined range from the vehicle direction x 2 is "1", if the other x 2 is "0".
これは、「車外者顔向き」が自車方向から所定範囲内にあれば、呼びかけを行っている車外者Wであるとの推定が働きやすいことによる。 This is because if the “outside vehicle face direction” is within a predetermined range from the direction of the vehicle, it is easy to estimate that the vehicle outsider W is calling.
また、たとえばx3は、車外者ジェスチャ解析部11adの解析結果に基づき、「条件」を「呼びかけジェスチャであるか否か」とすることによって求めることができる。すなわち、「車外者ジェスチャ」が呼びかけジェスチャであればx3は「1」となり、その他であればx3は「0」となる。 Further, for example, x 3, based on the analysis result of the outside's gesture analysis unit 11ad, the "condition" can be determined by a "whether the call gesture." That is, if the “outside car gesture” is a call gesture, x 3 is “1”, otherwise x 3 is “0”.
また、たとえばx4は、車外者移動ベクトル解析部11aeの解析結果に基づき、「条件」を「自車移動軌跡からの所定範囲内であるか否か」とすることによって求めることができる。すなわち、「車外者移動ベクトル」が自車移動軌跡からの所定範囲内であればx4は「1」となり、その他であればx4は「0」となる。これは、「車外者移動ベクトル」が自車移動軌跡からの所定範囲内であれば、呼びかけを行っている車外者Wであるとの推定が働きやすいことによる。 Further, for example, x 4, based on the analysis result of the outside's motion vector analyzing section 11ae, the "condition" can be determined by a "whether within a predetermined range from the vehicle movement trajectory". In other words, the "outside party movement vector" is becomes "1" if it is within the predetermined range x 4 is from the vehicle moving trajectory, if other x 4 is "0". This is because if the “outside vehicle movement vector” is within a predetermined range from the own vehicle movement locus, it is easy to estimate that the outside vehicle W is calling.
また、たとえばx5は、車外者音声解析部11afの解析結果に基づき、「条件」を「呼びかけ音声であるか否か」とすることによって求めることができる。すなわち、「車外者音声」が呼びかけ音声であればx5は「1」となり、その他であればx5は「0」となる。 Further, for example, x 5, based on the analysis result of the outside's speech analysis unit 11Af, the "condition" can be determined by a "whether the call audio". In other words, it is if the voice call is "outside of the vehicle's speech" x 5 becomes "1", the x 5 If the other "0".
また、たとえばx6は、車外者振動解析部11agの解析結果に基づき、「条件」を「呼びかけ振動であるか否か」とすることによって求めることができる。すなわち、「車外者振動」が呼びかけ振動であればx6は「1」となり、その他であればx6は「0」となる。 Further, for example, x 6, based on the analysis result of the outside's vibration analysis unit 11AG, the "condition" can be determined by a "whether the call oscillation". That is, if the “outside vehicle vibration” is a call vibration, x 6 is “1”, otherwise x 6 is “0”.
そして、車外者呼びかけ判定部11aは、かかる変形例において、図4Aに一例として示した各「条件」に沿ってx1〜xnを求めた上で、上記式(1)により車外者Wの評価スコアを算出する。そして、車外者呼びかけ判定部11aは、算出した評価スコアを報知判定部11bへ通知する。 The outside party call determination part 11a, in such a modification, after seeking x 1 ~x n along each shown as one example in FIG. 4A "condition", the outside party W by the above formula (1) An evaluation score is calculated. Then, the outsider call determination unit 11a notifies the calculated determination score to the notification determination unit 11b.
ドライバ認識判定部11cについても上記式(1)による同様の手法を用いることができる。すなわち、ドライバ認識判定部11cは、ドライバ顔向き解析部11ca、ドライバ視線解析部11cbおよびドライバ身体情報解析部11ccにより解析された解析結果それぞれに基づく、呼びかけを認識していないドライバDに対する素性を求める。
For the driver
例えば、呼びかけを認識していないドライバDを正例とする場合、呼びかけを認識していないドライバDの特徴ベクトルを有する場合には「xn」=「1」となり、有しない場合には「xn」=「0」となる。 For example, when a driver D that does not recognize a call is taken as a positive example, “x n ” = “1” if the feature vector of the driver D that does not recognize the call is included, and “x” n ”=“ 0 ”.
なお、ここでは、呼びかけを認識していないドライバDを正例とする例を挙げたが、呼びかけを認識しているドライバDを正例とすることによって呼びかけを認識していないドライバDを抽出してもよい。 In this example, the driver D that does not recognize the call is taken as a positive example, but the driver D that does not recognize the call is extracted by using the driver D that recognizes the call as a positive example. May be.
ドライバ認識判定部11cが呼びかけを認識していないドライバDを正例とした評価のために求められるxnの具体例を図4Bに示す。図4Bは、呼びかけを認識していないドライバDを正例とした場合の素性の具体例を示す図である。
FIG. 4B shows a specific example of xn that is obtained by the driver
なお、ここではn=1〜3までの例を挙げている。また、「対応項目」は、素性を求めるにあたりインプットとなるドライバ顔向き解析部11ca、ドライバ視線解析部11cbおよびドライバ身体情報解析部11ccの各解析結果である。 Here, examples of n = 1 to 3 are given. Further, the “corresponding item” is an analysis result of the driver face orientation analysis unit 11ca, the driver gaze analysis unit 11cb, and the driver body information analysis unit 11cc, which are inputs for obtaining the feature.
図4Bに示すように、たとえばx1は、ドライバ顔向き解析部11caの解析結果に基づき、「条件」を「車外者の所在方向以外であるか否か」とすることによって求めることができる。すなわち、「ドライバ顔向き」が車外者の所在方向以外であればx1は「1」となり、その他であればx1は「0」となる。 As shown in FIG. 4B, for example, x 1 can be obtained by setting “condition” as “whether the direction is other than the location of the outside person” based on the analysis result of the driver face orientation analysis unit 11ca. That is, next to "Driver face orientation" is x 1 if other than the location direction of the outside have "1", x 1 if other is "0".
これは、「ドライバ顔向き」が車外者の所在方向以外であれば、呼びかけを認識していないドライバDであるとの推定が働きやすいことによる。 This is because if the “driver's face direction” is other than the direction of the outsider's location, it is easy to estimate that the driver D does not recognize the call.
また、たとえばx2は、ドライバ視線解析部11cbの解析結果に基づき、「条件」を「車外者の所在方向以外であるか否か」とすることによって求めることができる。すなわち、「ドライバ視線」が車外者Wの所在方向以外であればx2は「1」となり、その他であればx2は「0」となる。 Further, for example, x 2, based on the analysis result of the driver sight analysis unit 11cb, the "condition" can be determined by the "whether or not other than the location direction of the outside party." That is, if the “driver's line of sight” is other than the direction in which the person outside the vehicle W is located, x 2 is “1”, otherwise x 2 is “0”.
これは、「ドライバ視線」が車外者Wの所在方向以外にあれば、呼びかけを認識していないドライバDとの推定が働きやすいことによる。 This is because if the “driver's line of sight” is in a direction other than the direction in which the person outside the vehicle W is located, it is easy to estimate the driver D who has not recognized the call.
また、たとえばx3は、ドライバ身体情報解析部11ccの解析結果に基づき、「条件」を「漫然運転中であるか否か」とすることによって求めることができる。すなわち、「ドライバ身体情報」が漫然運転中を示すものであればx3は「1」となり、その他であればx3は「0」となる。
Further, for example, x 3, based on the analysis result of the driver body
そして、ドライバ認識判定部11cは、かかる変形例において、図4Bに一例として示した各「条件」に沿ってx1〜xnを求めた上で、上記式(1)によりドライバDの評価スコアを算出する。そして、ドライバ認識判定部11cは、算出した評価スコアを報知判定部11bへ通知する。
Then, in this modification, the driver
図2Aの説明に戻り、つづいて報知判定部11bについて説明する。報知判定部11bは、車両情報センサ7からの車両情報に基づき、そもそも車外者Wの呼びかけに関する報知を行う必要がある走行状況かを判定し、行う必要がなければ車外者Wの呼びかけに関する報知を行わないようにする。 Returning to the description of FIG. 2A, the notification determination unit 11b will be described. Based on the vehicle information from the vehicle information sensor 7, the notification determination unit 11 b determines whether or not it is a driving situation in which it is necessary to make a notification regarding the call of the outsider W, and if it is not necessary, a notification regarding the call of the outsider W is issued. Do not do it.
また、行う必要がある走行状況であれば、報知判定部11bは、車外者呼びかけ判定部11aおよびドライバ認識判定部11cそれぞれの判定結果の一方または双方に基づき、ドライバDに対し呼びかけを行っている車外者Wの存在を報知するか否かを判定し、判定結果を報知情報生成部11dへ出力する。
In addition, if it is a driving situation that needs to be performed, the notification determination unit 11b calls the driver D based on one or both of the determination results of the outsider call determination unit 11a and the driver
たとえば、報知判定部11bは、少なくとも車外者呼びかけ判定部11aにより、車外者Wの呼びかけありと判定された場合には、ドライバDに対しその旨を報知すると判定する。 For example, the notification determination unit 11b determines to notify the driver D of the fact that at least the outsider call determination unit 11a determines that there is a call from the outsider W.
たとえばドライバDがかかる車外者Wを認識していたとしても、このように呼びかけを行っている車外者Wが存在することを報知することで、車外者Wに確認の意味で再認識させることができる。車外者Wからすれば、ドライバDに対し伝えたい意志があることを念押しすることができる。 For example, even if the driver D recognizes such an outsider W, by notifying that there is an outsider W making a call in this way, the outsider W can be re-recognized in the sense of confirmation. it can. From the outsider W, it can be reminded that there is a will to be communicated to the driver D.
また、たとえば報知判定部11bは、車外者呼びかけ判定部11aにより車外者Wの呼びかけありと判定され、かつ、ドライバ認識判定部11cによりドライバDの認識なしと判定された場合に、ドライバDに対し呼びかけを行っている車外者Wの存在を報知すると判定する。
In addition, for example, the notification determination unit 11b determines to the driver D when the vehicle outsider call determination unit 11a determines that the vehicle outsider W is calling and the driver
これにより、本当の意味での必要な場合に、すなわちドライバDが認識すらしていない場合に、呼びかけを行っている車外者Wの存在をドライバDに対し認識させ、コミュニケーションを成立させる契機を与えることができる。 As a result, when necessary in the true sense, that is, when the driver D is not even aware, the driver D is made aware of the presence of the outsider W who is calling and gives an opportunity to establish communication. be able to.
また、たとえば報知判定部11bは、図4Aおよび図4Bを用いて説明した変形例により、車外者呼びかけ判定部11aが車外者Wの評価スコアを、ドライバ認識判定部11cがドライバDの評価スコアを、それぞれ通知した場合は、これら評価スコアの得点が報知の必要があることを示す所定範囲であるならば、ドライバDに対し報知すると判定する。
Further, for example, the notification determination unit 11b uses the modified example described with reference to FIGS. 4A and 4B, the vehicle outsider call determination unit 11a provides the evaluation score of the vehicle outsider W, and the driver
報知情報生成部11dは、ドライバDに対し報知するとの判定結果を受け付けた場合に、報知部20へ報知させる報知情報を生成し、報知部20へ報知させる。ここで、第1の実施形態に係る報知情報の一例を図5に示す。 The notification information generation unit 11d generates notification information to be notified to the notification unit 20 and causes the notification unit 20 to notify when receiving a determination result of notification to the driver D. Here, an example of the notification information according to the first embodiment is shown in FIG.
図5に示すように、たとえば「報知形態」が音声であり、「報知対象」がドライバDである報知情報には、音声ガイダンスや警報音が含まれる。また、たとえば「報知形態」が表示であり、「報知対象」がドライバDである報知情報には、ディスプレイへの報知映像やアイコン表示が含まれる。 As illustrated in FIG. 5, for example, the notification information in which “notification form” is voice and “notification target” is the driver D includes voice guidance and alarm sound. Further, for example, the notification information in which “notification form” is a display and the “notification target” is the driver D includes a notification image and an icon display on the display.
また、たとえば「報知形態」が表示であり、「報知対象」が車外者Wである報知情報には、ブレーキランプまたはハザードランプの点滅が含まれる。また、「報知形態」が音声であり、「報知対象」が車外者Wである報知情報には、クラクションの吹鳴が含まれる。報知情報生成部11dは、このような「報知形態」および「報知対象」に応じた報知情報を生成し、報知部20の各種デバイスに報知させる。 Further, for example, the notification information in which “notification form” is displayed and “notification target” is an outsider W includes blinking of a brake lamp or a hazard lamp. Further, the notification information in which the “notification form” is a voice and the “notification target” is the outsider W includes a horn sound. The notification information generation unit 11d generates notification information corresponding to such “notification form” and “notification target”, and notifies the various devices of the notification unit 20 of the notification information.
次に、第1の実施形態に係る車外情報提供装置10が実行する処理手順について、図6を用いて説明する。図6は、第1の実施形態に係る車外情報提供装置10が実行する処理手順を示すフローチャートである。すなわち、「出庫時」(図1B参照)の場面での処理手順となる。
Next, a processing procedure executed by the outside
まず、イグニッションがONされる(ステップS101)。そして、報知判定部11bが、車両情報センサ7からの車両情報に基づき、車両Cの車速がたとえば10km/h以下であるか否かを判定する(ステップS102)。 First, the ignition is turned on (step S101). And the alert determination part 11b determines whether the vehicle speed of the vehicle C is 10 km / h or less based on the vehicle information from the vehicle information sensor 7 (step S102).
ここで、ステップS102の判定条件を満たす場合(ステップS102,Yes)、報知判定部11bは、つづいて車両Cの始動時からの移動距離がたとえば10m以下であるか否かを判定する(ステップS103)。 Here, when the determination condition of step S102 is satisfied (step S102, Yes), the notification determination unit 11b subsequently determines whether or not the moving distance from the start of the vehicle C is, for example, 10 m or less (step S103). ).
ここで、ステップS103の判定条件を満たす場合(ステップS103,Yes)、車外者呼びかけ判定部11aが、車外者呼びかけ判定処理を実行する(ステップS104)。また、ドライバ認識判定部11cが、ドライバ認識判定処理を実行する(ステップS105)。なお、図6に示す車外者呼びかけ判定処理(ステップS104)と、ドライバ認識判定処理(ステップS105)とについては、両方の処理が略同時に行われてもよい。また、一方の処理が他方の処理よりも時間的に前のタイミングに行われてもよいし、後のタイミングに行われてもよい。
Here, when the determination condition of step S103 is satisfied (step S103, Yes), the vehicle outsider call determination unit 11a executes vehicle outsider call determination processing (step S104). Further, the driver
そして、報知判定部11bが、車外者呼びかけ判定部11aおよびドライバ認識判定部11cそれぞれの判定結果の一方または双方、少なくとも車外者呼びかけ判定部11aの判定結果に基づき、報知判定処理を行う(ステップS106)。
Then, the notification determination unit 11b performs notification determination processing based on one or both of the determination results of the outsider call determination unit 11a and the driver
そして、その結果、報知要であると判定された場合(ステップS107,Yes)、報知情報生成部11dによって生成された報知情報に基づき、車外者WがドライバDへ呼びかけを行っている旨が報知部20より報知される(ステップS108)。そしてステップS102からの処理を繰り返す。 As a result, if it is determined that notification is required (step S107, Yes), it is notified that the vehicle outsider W is calling the driver D based on the notification information generated by the notification information generation unit 11d. This is notified from the unit 20 (step S108). Then, the processing from step S102 is repeated.
なお、ステップS102、S103およびS107の判定条件を満たさない場合(ステップS102,No/ステップS103,No/ステップS107,No)、処理を終了する。 If the determination conditions of steps S102, S103, and S107 are not satisfied (step S102, No / step S103, No / step S107, No), the process ends.
上述してきたように、第1の実施形態に係る車外情報提供装置10は、車外者呼びかけ判定部11a(「呼びかけ判定部」の一例に相当)と、報知部20とを備える。車外者呼びかけ判定部11aは、車外者W(「車外の人物」の一例に相当)を検出し、かかる車外者WがドライバD(「車内の搭乗者」に相当)に対して呼びかけを行っているかを判定する。報知部20は、車外者呼びかけ判定部11aによって車外者Wが呼びかけを行っていると判定された場合に、車外者Wの存在をドライバDに対して報知する。
As described above, the outside
したがって、第1の実施形態に係る車外情報提供装置10によれば、ドライバDに対し意志を伝えたい車外者Wの存在をドライバDに情報提供することができる。
Therefore, according to the outside
(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態は、「停留所からのバス発車時」(図1C参照)の場面である。なお、第2の実施形態では、主に第1の実施形態と異なる部分について説明し、内容の重複する部分については説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. The second embodiment is a scene of “when the bus departs from the bus stop” (see FIG. 1C). In the second embodiment, portions different from those in the first embodiment will be mainly described, and description of portions having overlapping contents will be omitted.
図7Aは、第2の実施形態に係る車外者呼びかけ判定部11aAのブロック図である。図7Aは、図2Bに対応しており、第2の実施形態に係る車外者呼びかけ判定部11aAは、第1の実施形態に係る車外者呼びかけ判定部11aとは、さらに車外者位置解析部11ahを備える点が異なる。また、必ずしも、車外者向き解析部11ab、車外者顔向き解析部11ac、車外者移動ベクトル解析部11aeおよび車外者振動解析部11agが動作しなくともよい点が異なる。なお、動作してもよい。 FIG. 7A is a block diagram of an outsider call determination unit 11aA according to the second embodiment. FIG. 7A corresponds to FIG. 2B, and the outsider call determination unit 11aA according to the second embodiment is further different from the outsider call determination unit 11a according to the first embodiment. Is different. Further, the difference is that the outsider direction analysis unit 11ab, the outsider face direction analysis unit 11ac, the outsider movement vector analysis unit 11ae, and the outsider vibration analysis unit 11ag do not necessarily operate. It may operate.
車外者位置解析部11ahは、たとえば外部用カメラ2およびレーダ3からの各種情報に基づき、停留所BSの位置を基準とする車外者Wの位置を解析する。
The outsider position analyzing unit 11ah analyzes the position of the outsider W based on the position of the stop BS based on various information from the external camera 2 and the
図7Bは、停留所BS周辺の俯瞰模式図である。車外者位置解析部11ahは、かかる図7Bで塗りつぶした部分として示す、停留所BSからの所定範囲内に車外者Wが存在するかを判定する。所定範囲は、図7Bに示すように、停留所BSから歩道に沿った±nメートル(たとえば±30メートル)の範囲である。 FIG. 7B is a schematic bird's-eye view around the stop BS. The vehicle outsider position analyzing unit 11ah determines whether or not the vehicle outsider W exists within a predetermined range from the stop BS, which is shown as a solid portion in FIG. 7B. As shown in FIG. 7B, the predetermined range is a range of ± n meters (for example, ± 30 meters) along the sidewalk from the stop BS.
そして、第2の実施形態では、かかる所定範囲内にバスBのドライバDに対する呼びかけを行っている車外者Wが存在すれば、かかる車外者Wを乗り遅れた乗客と見なし、この乗客に関する報知を行う。 In the second embodiment, if there is a vehicle outsider W who is calling the driver D of the bus B within the predetermined range, the vehicle outsider W is regarded as a passenger who has missed and a notification regarding this passenger is made. .
説明の便宜上、図4Aに対応させて、第2の実施形態において、呼びかけを行っている車外者Wを正例とした場合の素性の具体例を図7Cに示した。 For convenience of explanation, FIG. 7C shows a specific example of the feature in a case where the outside person W who is calling is a positive example in the second embodiment, corresponding to FIG. 4A.
なお、ここではn=1〜3までの例を挙げている。また、「対応項目」は、車外者位置解析部11ah、車外者ジェスチャ解析部11adおよび車外者音声解析部11afの各解析結果である。 Here, examples of n = 1 to 3 are given. The “corresponding item” is an analysis result of the vehicle outsider position analysis unit 11ah, the vehicle outsider gesture analysis unit 11ad, and the vehicle outsider voice analysis unit 11af.
図7Cに示すように、たとえばx1は、車外者位置解析部11ahの解析結果に基づき、「条件」を「停留所から所定範囲内であるか否か」とすることによって求めることができる。すなわち、「車外者位置」が停留所BSから所定範囲内であればx1は「1」となり、その他であればx1は「0」となる。 As shown in FIG. 7C, for example x 1, based on the analysis result of the outside's position analysis portion 11ah, the "condition" can be determined by a "whether within a predetermined range from the stop." That is, x 1 is “1” if the “outside vehicle position” is within a predetermined range from the stop BS, and x 1 is “0” otherwise.
これは、「車外者位置」が停留所BSから所定範囲内であれば、呼びかけを行っている車外者Wであるとの推定が働きやすいことによる。 This is because if the “outside vehicle position” is within a predetermined range from the stop BS, it is easy to estimate that the outside vehicle W is calling.
また、たとえばx2は、車外者ジェスチャ解析部11adの解析結果に基づき、「条件」を「乗車アピールジェスチャであるか否か」とすることによって求めることができる。すなわち、「車外者ジェスチャ」が乗車アピールジェスチャであればx2は「1」となり、その他であればx2は「0」となる。 Further, for example, x 2, based on the analysis result of the outside's gesture analysis unit 11ad, the "condition" can be determined by a "whether the boarding appeal gesture". In other words, it is "the outside of the vehicle's gesture" is ride if the appeal gesture x 2 becomes "1", the x 2 if the other "0".
また、たとえばx3は、車外者音声解析部11afの解析結果に基づき、「条件」を「乗車アピール音声であるか否か」とすることによって求めることができる。すなわち、「車外者音声」が乗車アピール音声であればx3は「1」となり、その他であればx3は「0」となる。 Further, for example, x 3, based on the analysis result of the outside's speech analysis unit 11Af, the "condition" can be determined by a "whether the boarding appeal audio". In other words, the next x 3 if it is "outside the vehicle's voice" is riding appeal voice is "1", if the other x 3 is "0".
後は、第1の実施形態で、図4Aに示した例と同様に、車外者呼びかけ判定部11aが、たとえば図7Cに一例として示した各「条件」に沿ってx1〜xnを求めた上で、上記式(1)により車外者Wの評価スコアを算出することで、第2の実施形態における、乗り遅れた乗客である車外者Wが呼びかけを行っている度合いを評価することができる。 Thereafter, in the first embodiment, as in the example shown in FIG. 4A, the outsider call determination unit 11a obtains x 1 to x n according to each “condition” shown as an example in FIG. 7C, for example. In addition, by calculating the evaluation score of the outside person W by the above formula (1), it is possible to evaluate the degree that the outside person W who is a late passenger is calling in the second embodiment. .
これにより、乗り遅れたが、バスBに乗車する意志のある車外者Wを検出することができる。 As a result, it is possible to detect an outside person W who has missed the ride but is willing to get on the bus B.
次に、第2の実施形態に係る報知情報を図8に示す。図8は、図5に対応しているが、第2の実施形態で特に異なる点は、乗り遅れた乗客である車外者Wに対し、メッセージ表示を行う点である。これは、たとえばバスBには行先表示や路線番号などを表示する表示領域があるので、かかる表示領域を利用するものである。 Next, the notification information according to the second embodiment is shown in FIG. FIG. 8 corresponds to FIG. 5, but is particularly different in the second embodiment in that a message is displayed to the outside person W who is a late passenger. This is because, for example, the bus B has a display area for displaying a destination display, a route number, and the like, so that the display area is used.
かかる表示領域に、たとえば「分かりました。再停車します。」といったメッセージを表示することで、乗り遅れた車外者Wに対しては、安心感を与えることができる。 By displaying a message such as “I understand. I will stop again” in this display area, it is possible to give a sense of security to the outsider W who has missed the ride.
次に、第2の実施形態に係る車外情報提供装置10が実行する処理手順について、図9を用いて説明する。図9は、第2の実施形態に係る車外情報提供装置10が実行する処理手順を示すフローチャートである。
Next, a processing procedure executed by the outside
まずは一旦、バスBのドアがクローズされる(ステップS201)。そして、報知判定部11bが、車両情報センサ7からの車両情報に基づき、バスBの車速がたとえば10km/h以下であるか否かを判定する(ステップS202)。 First, the door of bus B is once closed (step S201). And the alert determination part 11b determines whether the vehicle speed of the bus | bath B is 10 km / h or less based on the vehicle information from the vehicle information sensor 7 (step S202).
ここで、ステップS202の判定条件を満たす場合(ステップS202,Yes)、車外者Wの有無が判定される(ステップS203)。ここで、ステップS203の判定条件を満たす場合(ステップS203,Yes)、車外者呼びかけ判定部11aAが、車外者呼びかけ判定処理を実行する(ステップS204)。 Here, when the determination condition of step S202 is satisfied (step S202, Yes), the presence / absence of an outside person W is determined (step S203). Here, when the determination condition of step S203 is satisfied (step S203, Yes), the outsider call determination unit 11aA executes an outsider call determination process (step S204).
そして、報知判定部11bが、車外者呼びかけ判定部11aAの判定結果に基づき、乗り遅れた乗客であるか否かを判定する(ステップS205)。 And the alerting | reporting determination part 11b determines whether it is a passenger who got late based on the determination result of the vehicle outsider call determination part 11aA (step S205).
そして、その結果、乗り遅れた乗客であると判定された場合(ステップS205,Yes)、報知情報生成部11dによって生成された報知情報に基づき、かかる乗客が停留所BSからの所定範囲内に存在する旨、報知部20より報知される(ステップS206)。 As a result, when it is determined that the passenger is late (step S205, Yes), based on the notification information generated by the notification information generation unit 11d, the passenger is present within a predetermined range from the stop BS. This is notified from the notification unit 20 (step S206).
なお、ステップS203およびS205の判定条件を満たさない場合(ステップS203,No/ステップS205,No)、ステップS202からの処理を繰り返し、ステップS202の判定条件を満たさない場合(ステップS202,No)、処理を終了する。 If the determination conditions of steps S203 and S205 are not satisfied (step S203, No / step S205, No), the process from step S202 is repeated, and if the determination conditions of step S202 are not satisfied (step S202, No), the process Exit.
上述してきたように、第2の実施形態では、車外者呼びかけ判定部11aAが、呼びかけを行っている車外者Wの存在に係る要素として、停留所BSから所定範囲内に存在するか否かを解析することとした。 As described above, in the second embodiment, the vehicle outsider call determination unit 11aA analyzes whether or not the vehicle outsider W making a call exists within a predetermined range from the stop BS. It was decided to.
したがって、第2の実施形態によれば、停留所BSから所定範囲内で乗車をアピールする車外者Wの存在をドライバDに情報提供することができる。 Therefore, according to the second embodiment, it is possible to provide the driver D with information on the presence of the outside person W who appeals to board the passenger within the predetermined range from the stop BS.
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態は、「タクシー走行時」(図1D参照)の場面である。なお、第3の実施形態では、主に第1および第2の実施形態と異なる部分について説明し、内容の重複する部分については説明を省略する。
(Third embodiment)
Next, a third embodiment will be described. The third embodiment is a scene during “cab driving” (see FIG. 1D). In the third embodiment, portions different from those in the first and second embodiments will be mainly described, and description of portions having overlapping contents will be omitted.
図10Aは、第3の実施形態に係る車外者呼びかけ判定部11aBのブロック図である。図10Aは、図2B,図7Aに対応しており、第3の実施形態に係る車外者呼びかけ判定部11aBは、第1の実施形態に係る車外者呼びかけ判定部11aとは、さらに車外者位置解析部11ah’を備える点が異なる。また、車外者顔向き解析部11acが動作する点が、第2の実施形態に係る車外者呼びかけ判定部11aAとは異なる。 FIG. 10A is a block diagram of an outsider call determination unit 11aB according to the third embodiment. FIG. 10A corresponds to FIGS. 2B and 7A, and the outsider call determination unit 11aB according to the third embodiment is further different from the outsider call determination unit 11a according to the first embodiment. The difference is that an analysis unit 11ah ′ is provided. Further, the point that the outsider face orientation analysis unit 11ac operates is different from the outsider call determination unit 11aA according to the second embodiment.
車外者位置解析部11ah’は、たとえば外部用カメラ2、レーダ3および車両情報センサ7などからの各種情報に基づき、車外者Wの位置がタクシーTの乗車可能範囲内にあるかを解析する。
The vehicle outsider position analyzing unit 11ah 'analyzes whether the position of the vehicle outsider W is within the taxiable range of the taxi T based on various information from the external camera 2, the
図10Bは、車外者W周辺の俯瞰模式図である。車外者位置解析部11ah’は、かかる図10Bで塗りつぶした部分として示す領域が、一般道であるか、駐停車禁止区域外であるか、車外者Wの位置±nメートル以内に安全に減速して停車できる領域であるかを解析する。 FIG. 10B is a schematic bird's-eye view around the outsider W. The vehicle outsider position analyzing unit 11ah ′ safely decelerates the area shown as a solid portion in FIG. 10B within a range of ± n meters of the outsider W, whether it is a general road or outside a parking and parking prohibited area. Analyzing whether the vehicle can stop.
そして、第3の実施形態では、かかる領域に関する条件をすべて満たすならば乗車可能範囲であり、かつ、車外者Wが呼びかけを行っているならば、かかる車外者Wをタクシー客と見なし、このタクシー客に関する報知を行う。 In the third embodiment, if all the conditions related to such a region are satisfied, it is within the possible range, and if the outsider W is calling, the outsider W is regarded as a taxi passenger. Information about customers.
これまで同様、第3の実施形態において、呼びかけを行っている車外者Wを正例とした場合の素性の具体例を図10Cに示した。 As in the past, in the third embodiment, FIG. 10C shows a specific example of the feature when the outside person W who is calling is a positive example.
なお、ここではn=1〜4までの例を挙げている。また、「対応項目」は、車外者位置解析部11ah’、車外者顔向き解析部11ac、車外者ジェスチャ解析部11adおよび車外者音声解析部11afの各解析結果である。 Here, examples where n = 1 to 4 are given. The “corresponding item” is an analysis result of the outsider position analysis unit 11ah ′, the outsider face orientation analysis unit 11ac, the outsider gesture analysis unit 11ad, and the outsider voice analysis unit 11af.
図10Cに示すように、たとえばx1は、車外者位置解析部11ah’の解析結果に基づき、「条件」を「乗車可能範囲内であるか否か」とすることによって求めることができる。すなわち、「車外者位置」が乗車可能範囲内であればx1は「1」となり、その他であればx1は「0」となる。 As shown in FIG. 10C, for example, x 1, based on the analysis result of the outside's position analyzing unit 11ah ', the "condition" can be determined by a "whether the riding range". That is, x 1 is “1” if the “outside vehicle position” is within the boarding range, and x 1 is “0” otherwise.
また、たとえばx2は、車外者顔向き解析部11acの解析結果に基づき、「条件」を「自車方向から所定範囲内であるか否か」とすることによって求めることができる。すなわち、「車外者顔向き」が自車方向から所定範囲内であればx2は「1」となり、その他であればx2は「0」となる。 Further, for example, x 2, based on the analysis result of the outside's face orientation analyzing section 11ac, the "condition" can be determined by a "whether the vehicle direction is within a predetermined range." That is, the if "outside who face orientation" is within a predetermined range from the vehicle direction x 2 is "1", if the other x 2 is "0".
また、たとえばx3は、車外者ジェスチャ解析部11adの解析結果に基づき、「条件」を「乗車アピールジェスチャであるか否か」とすることによって求めることができる。すなわち、「車外者ジェスチャ」が乗車アピールジェスチャであればx3は「1」となり、その他であればx3は「0」となる。 Further, for example, x 3, based on the analysis result of the outside's gesture analysis unit 11ad, the "condition" can be determined by a "whether the boarding appeal gesture". In other words, if it is "outside the vehicle's gesture" is riding appeal gesture x 3 is "1", if the other x 3 is "0".
また、たとえばx4は、車外者音声解析部11afの解析結果に基づき、「条件」を「乗車アピール音声であるか否か」とすることによって求めることができる。すなわち、「車外者音声」が乗車アピール音声であればx4は「1」となり、その他であればx4は「0」となる。 Further, for example, x 4, based on the analysis result of the outside's speech analysis unit 11Af, the "condition" can be determined by a "whether the boarding appeal audio". In other words, it is "the outside of the vehicle's voice" is riding appeal if the voice x 4 is "1", if the other x 4 is "0".
後は、これまでと同様に、車外者呼びかけ判定部11aBが、たとえば図10Cに一例として示した各「条件」に沿ってx1〜xnを求めた上で、上記式(1)により車外者Wの評価スコアを算出することで、第3の実施形態における、乗車可能範囲内に存在するタクシー客である車外者Wが呼びかけを行っている度合いを評価することができる。 Thereafter, as in the past, the outsider call determination unit 11aB obtains x 1 to x n according to each “condition” shown as an example in FIG. By calculating the evaluation score of the person W, it is possible to evaluate the degree of call by the outside person W who is a taxi passenger existing in the possible boarding range in the third embodiment.
これにより、タクシーTに乗車する意志があり、かつ、乗車可能範囲で安全に乗車させることができる車外者Wの存在をドライバDに対し情報提供することができる。 As a result, the driver D can be provided with information on the presence of the outside person W who is willing to get on the taxi T and can safely get in the taxiable range.
なお、タクシーTに乗車可能である条件として、車両情報に基づき、スーパーサインが「空車」および「割増」などである場合を含んでもよい。 In addition, the condition that the taxi T can be boarded may include a case where the super sign is “empty vehicle”, “extra charge”, or the like based on vehicle information.
第3の実施形態に係る報知情報を図11に示す。図11は、図5,図8に対応しているが、第3の実施形態で特に異なる点は、ドライバDに対し、強調枠または矢印アイコンによって、たとえばタクシー客や乗車可能領域の位置を明確に表示する点である。これにより、安全に乗車させることができるタクシー客の存在を、ドライバDに確実に情報提供することができる。 The notification information according to the third embodiment is shown in FIG. FIG. 11 corresponds to FIG. 5 and FIG. 8, but the third embodiment is particularly different from the driver D in that the position of a taxi passenger or a boarding area can be clearly defined by an emphasis frame or an arrow icon. It is a point to be displayed. Thereby, the driver D can be surely provided with information on the existence of a taxi passenger that can be safely boarded.
次に、第3の実施形態に係る車外情報提供装置10が実行する処理手順について、図12を用いて説明する。図12は、第3の実施形態に係る車外情報提供装置10が実行する処理手順を示すフローチャートである。
Next, a processing procedure executed by the outside
まず、車両情報からタクシー客が乗車可能であるか否かが判定される(ステップS301)。ここで、ステップS301の判定条件を満たす場合(ステップS301,Yes)、車外者Wの有無が判定される(ステップS302)。 First, it is determined from the vehicle information whether a taxi passenger can ride (step S301). Here, when the determination condition of step S301 is satisfied (step S301, Yes), the presence / absence of the outside person W is determined (step S302).
そして、ステップS302の判定条件を満たす場合(ステップS302,Yes)、車外者呼びかけ判定部11aBが、車外者呼びかけ判定処理を実行する(ステップS303)。また、ドライバ認識判定部11cが、ドライバ認識判定処理を実行する(ステップS304)。なお、図12に示す車外者呼びかけ判定処理(ステップS303)と、ドライバ認識判定処理(ステップS304)とについては、両方の処理が略同時に行われてもよい。また、一方の処理が他方の処理よりも時間的に前のタイミングに行われてもよいし、後のタイミングに行われてもよい。
And when satisfy | filling the determination conditions of step S302 (step S302, Yes), the vehicle outsider call determination part 11aB performs vehicle outside person call determination processing (step S303). Further, the driver
そして、報知判定部11bが、車外者呼びかけ判定部11aBおよびドライバ認識判定部11cそれぞれの判定結果の一方または双方、少なくとも車外者呼びかけ判定部11aBの判定結果に基づき、報知判定処理を行う(ステップS305)。
Then, the notification determination unit 11b performs notification determination processing based on one or both of the determination results of the outsider call determination unit 11aB and the driver
そして、その結果、報知要(乗客)であると判定された場合(ステップS306,Yes)、報知情報生成部11dによって生成された報知情報に基づき、安全に乗車させることができるタクシー客が存在する旨が報知部20より報知される(ステップS307)。 As a result, when it is determined that the notification is required (passenger) (Yes in step S306), there is a taxi passenger that can be safely boarded based on the notification information generated by the notification information generation unit 11d. The effect is notified from the notification unit 20 (step S307).
なお、ステップS306の判定条件を満たさない場合(ステップS306,No)、ステップS301からの処理を繰り返す。また、ステップS301およびS302の判定条件を満たさない場合(ステップS301,No/ステップS302,No)、処理を終了する。 If the determination condition in step S306 is not satisfied (No in step S306), the processing from step S301 is repeated. If the determination conditions of steps S301 and S302 are not satisfied (step S301, No / step S302, No), the process ends.
上述してきたように、第3の実施形態では、呼びかけを行っている車外者の存在に係る要素として、乗車可能範囲内に存在するか否かを解析する。 As described above, in the third embodiment, it is analyzed whether or not an element relating to the presence of an outsider who is calling is within the possible boarding range.
したがって、第3の実施形態によれば、安全に乗車させることができるタクシー客である車外者Wの存在をドライバDに情報提供することができる。 Therefore, according to the third embodiment, it is possible to provide information to the driver D about the presence of the outside person W who is a taxi passenger who can safely get on.
(第4の実施形態)
次に、第4の実施形態について説明する。第4の実施形態は、「待ち合わせ時」(図1E参照)の場面である。なお、第4の実施形態では、主に第1〜第3の実施形態と異なる部分について説明し、内容の重複する部分については説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment will be described. The fourth embodiment is a scene of “when waiting” (see FIG. 1E). In the fourth embodiment, parts different from those in the first to third embodiments will be mainly described, and the description of overlapping parts will be omitted.
図13Aは、第4の実施形態に係る車外者呼びかけ判定部11aCのブロック図である。図13Aは、図2B,図7A,図10Aに対応しており、第4の実施形態に係る車外者呼びかけ判定部11aCは、第1の実施形態に係る車外者呼びかけ判定部11aとは、さらに車外者認証部11ajを備える点が異なる。また、車外者向き解析部11abが動作する点が、第2および第3の実施形態に係る車外者呼びかけ判定部11aA,11aBとは異なる。また、予め登録される待ち合わせ登録情報12eを参照する点が、第1〜第3の実施形態とは異なる。
FIG. 13A is a block diagram of an outsider call determination unit 11aC according to the fourth embodiment. FIG. 13A corresponds to FIG. 2B, FIG. 7A, and FIG. 10A, and the outsider call determination unit 11aC according to the fourth embodiment is further different from the outsider call determination unit 11a according to the first embodiment. The difference is that the vehicle outsider authentication unit 11aj is provided. Moreover, the point which the vehicle exterior direction analysis part 11ab operate | moves differs from the vehicle exterior person call determination parts 11aA and 11aB which concern on 2nd and 3rd embodiment. Moreover, the point which refers the waiting
車外者認証部11ajは、たとえば通信端末4と情報通信可能に設けられ、通信端末4からの車外者Wに関する認証情報および待ち合わせ登録情報12eに基づいて車外者Wの認証処理を行う。
The vehicle outsider authentication unit 11aj is provided so as to be capable of information communication with the communication terminal 4, for example, and performs authentication processing for the vehicle outsider W based on the authentication information regarding the vehicle outsider W from the communication terminal 4 and the waiting
図13Bは、待ち合わせ登録情報12eの一例を示す図である。待ち合わせ登録情報12eは、「目的地」と、待ち合わせ人を識別可能なたとえば「待ち合わせ人顔画像」と、「待ち合わせ人電話番号」と、「待ち合わせ人メールアドレス」などを関連付けた情報である。待ち合わせ登録情報12eは、待ち合わせの目的地の設定に際して登録される。
FIG. 13B is a diagram illustrating an example of the waiting
車外者認証部11ajは、車両Cが目的地へ近づいたならば、待ち合わせ登録情報12eの内容に基づいて車外者Wの携帯する通信端末4の接続を行い、接続が確立したならば、通信端末4から待ち合わせ登録情報12eに登録されているデータ(たとえば顔画像)を取得して、車外者Wを待ち合わせ人として認証する。
The vehicle outsider authentication unit 11aj connects the communication terminal 4 carried by the vehicle outsider W based on the contents of the waiting
そして、かかる待ち合わせ人である車外者Wについて、車外者呼びかけ判定処理、すなわち、向き、顔向き、ジェスチャ、音声の少なくともいずれかの解析を行い、間違いなく待ち合わせ人であるならばドライバDに対する報知を行う。 Then, the outsider W who is the queuing person performs an outsider call determination process, that is, analysis of at least one of direction, face direction, gesture, and voice. Do.
これまで同様、第4の実施形態において、呼びかけを行っている車外者Wを正例とした場合の素性の具体例を図13Cに示した。 As in the past, in the fourth embodiment, FIG. 13C shows a specific example of the feature when the outside person W who is calling is a positive example.
なお、ここではn=1〜5までの例を挙げている。また、「対応項目」は、車外者認証部11ajの認証結果、車外者向き解析部11ab、車外者顔向き解析部11ac、車外者ジェスチャ解析部11adおよび車外者音声解析部11afの各解析結果である。 Here, examples where n = 1 to 5 are given. The “corresponding item” is an authentication result of the outsider authentication unit 11aj, an analysis result of the outsider direction analysis unit 11ab, an outsider face direction analysis unit 11ac, an outsider gesture analysis unit 11ad, and an outsider voice analysis unit 11af. is there.
図13Cに示すように、たとえばx1は、車外者認証部11ajの認証結果に基づき、「条件」を「認証OKであるか否か」とすることによって求めることができる。すなわち、「車外者認証」が認証OKであればx1は「1」となり、その他であればx1は「0」となる。 As shown in FIG. 13C, for example, x 1, based on the authentication result of the outside authenticating section 11Aj, the "condition" can be determined by a "whether the authentication OK". That is, x 1 is “1” if “outside vehicle authentication” is authentication OK, and x 1 is “0” otherwise.
x2〜x5はこれまでと同様であるので、説明を省略する。後は、車外者呼びかけ判定部11aCが、たとえば図13Cに一例として示した各「条件」に沿ってx1〜xnを求めた上で、上記式(1)により車外者Wの評価スコアを算出することで、第4の実施形態における、待ち合わせ人である車外者Wが呼びかけを行っている度合いを評価することができる。また、あわせてドライバ認識判定部11cが、第1の実施形態と同様のドライバ認識判定処理を行って、ドライバDの評価スコアを算出し、ドライバDが呼びかけを認識してない度合いを評価してもよい。
Since x 2 ~x 5 are the same as before, the description thereof is omitted. Thereafter, the outsider call determination unit 11aC obtains x 1 to x n according to each “condition” shown as an example in FIG. 13C, for example, and then calculates the evaluation score of the outside person W by the above formula (1). By calculating, it is possible to evaluate the degree to which the outside person W who is a meeting person is calling in the fourth embodiment. In addition, the driver
これにより、待ち合わせ人である車外者Wを容易にまた確実に検出し、ドライバDが認識していない場合には確実に報知することができる。また、ドライバDが待ち合わせ人を探すために注意力が散漫となってしまうのを防ぐことができる。したがって、ドライバDにとって安全な待ち合わせを行うことができる。 As a result, the vehicle occupant W who is the queuing person can be detected easily and reliably, and when the driver D does not recognize it, it can be notified with certainty. In addition, it is possible to prevent the driver D from being distracted to look for a meeting person. Therefore, safe waiting for the driver D can be performed.
第4の実施形態に係る報知情報を図14に示す。図14は、図5,図8,図11に対応しているが、第4の実施形態で特に異なる点は、ドライバDに対し注意喚起音を報知したり、車外者Wに対し弱クラクションを吹鳴して、ドライバDの接近を報知する点である。これにより、ドライバDに対しても、車外者Wに対しても、スムーズな待ち合わせを行うのに資する情報提供を行うことができる。 The notification information according to the fourth embodiment is shown in FIG. FIG. 14 corresponds to FIG. 5, FIG. 8, and FIG. 11, but the difference in the fourth embodiment is that a warning sound is notified to the driver D or a weak horn is given to the outside person W. It is a point that sounds and informs the approach of the driver D. Thereby, it is possible to provide information that contributes to smooth waiting for both the driver D and the outsider W.
次に、第4の実施形態に係る車外情報提供装置10が実行する処理手順について、図15を用いて説明する。図15は、第4の実施形態に係る車外情報提供装置10が実行する処理手順を示すフローチャートである。
Next, a processing procedure executed by the outside
まず、待ち合わせ登録情報12eの有無が判定される(ステップS401)。ここで、待ち合わせ登録情報12eがある場合(ステップS401,Yes)、目的地近くであるか否かが判定される(ステップS402)。
First, the presence / absence of the waiting
ここで、ステップS402の判定条件を満たす場合(ステップS402,Yes)、車外者Wの有無が判定される(ステップS403)。 Here, when the determination condition of step S402 is satisfied (step S402, Yes), the presence / absence of the outside person W is determined (step S403).
そして、ステップS403の判定条件を満たす場合(ステップS403,Yes)、車外者認証部11ajが、車外者Wの認証処理を行う(ステップS404)。ここで、待ち合わせ人であると認証されない場合(ステップS405,No)、ステップS402からの処理を繰り返す。また、ステップS402およびS403の判定条件を満たさない場合も(ステップS402,No/ステップS403,No)、ステップS402からの処理を繰り返す。 When the determination condition of step S403 is satisfied (step S403, Yes), the vehicle outsider authentication unit 11aj performs a vehicle outsider W authentication process (step S404). Here, when it is not authenticated that the person is a meeting person (step S405, No), the processing from step S402 is repeated. Also, when the determination conditions of steps S402 and S403 are not satisfied (step S402, No / step S403, No), the processing from step S402 is repeated.
なお、図示していないが、車外者呼びかけ判定部11aCが認証処理以外の車外者呼びかけ判定処理をあわせて行ってもよい。 Although not shown, the outsider call determination unit 11aC may perform the outsider call determination process other than the authentication process.
そして、ステップS405の判定条件を満たす場合(ステップS405,Yes)、ドライバ認識判定部11cがドライバ認識判定処理を実行する(ステップS406)。
If the determination condition in step S405 is satisfied (step S405, Yes), the driver
その結果、ドライバDが認識していないと判定された場合(ステップS407,No)、報知情報生成部11dによって生成された報知情報に基づき、待ち合わせ人が存在する旨が報知部20より報知される(ステップS408)。 As a result, when it is determined that the driver D has not recognized (step S407, No), the notification unit 20 notifies that there is a waiting person based on the notification information generated by the notification information generation unit 11d. (Step S408).
なお、ステップS401の判定条件を満たさない場合(ステップS401,No)、または、ステップS407の判定条件を満たす場合(ステップS407,Yes)、処理を終了する。 If the determination condition of step S401 is not satisfied (step S401, No), or if the determination condition of step S407 is satisfied (step S407, Yes), the process ends.
上述してきたように、第4の実施形態では、目的地近くの車外者が待ち合わせ人であるか否かを認証し、認証された待ち合わせ人に対し、車外者呼びかけ判定処理およびドライバ認識処理を行うこととした。 As described above, in the fourth embodiment, it is authenticated whether or not an outside person near the destination is a meeting person, and an outside person calling determination process and a driver recognition process are performed on the authenticated meeting person. It was decided.
したがって、第4の実施形態によれば、待ち合わせをスムーズかつ安全に行うことができる。なお、車外者Wの認証処理は、必ずしも行わなくともよい。たとえば待ち合わせの目的地のみ登録しておき、目的地の接近時に、認証処理を含まない車外者呼びかけ判定処理およびドライバ認識処理を行うようにしてもよい。 Therefore, according to the fourth embodiment, the waiting can be performed smoothly and safely. In addition, the authentication process of the outside person W does not necessarily need to be performed. For example, only the destination for meeting may be registered, and the outsider call determination process and the driver recognition process that do not include the authentication process may be performed when the destination approaches.
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.
1 車外情報提供システム
10 車外情報提供装置
11 制御部
11a,11aA,11aB,11aC 車外者呼びかけ判定部
11aa 車外者検出部
11ab 車外者向き解析部
11ac 車外者顔向き解析部
11ad 車外者ジェスチャ解析部
11ae 車外者移動ベクトル解析部
11af 車外者音声解析部
11ag 車外者振動解析部
11ah,11ah' 車外者位置解析部
11aj 車外者認証部
11b 報知判定部
11c ドライバ認識判定部
11ca ドライバ顔向き解析部
11cb ドライバ視線解析部
11cc ドライバ身体情報解析部
11d 報知情報生成部
11e 学習部
12 記憶部
12a ジェスチャパターン情報
12b 音声パターン情報
12c 振動パターン情報
12d ジェスチャ判別モデル
12e 待ち合わせ登録情報
20 報知部
B バス
BS 停留所
C 車両
D ドライバ
T タクシー
W 車外者
DESCRIPTION OF SYMBOLS 1 Outside-vehicle
Claims (9)
前記呼びかけ判定部によって前記人物が前記呼びかけを行っていると判定された場合に、前記人物の存在を前記搭乗者に対して報知する報知部と
を備えることを特徴とする車外情報提供装置。 A call determination unit that detects a person outside the vehicle and determines whether the person is calling a passenger in the vehicle;
An outside information providing apparatus comprising: a notifying unit that notifies the passenger of the presence of the person when the call determining unit determines that the person is making the call.
前記検出部の検出結果に基づいて前記人物のジェスチャを解析するジェスチャ解析部と
を備え、
前記呼びかけ判定部は、
前記ジェスチャ解析部の解析結果に基づいて前記人物が前記呼びかけを行っているかを判定すること
を特徴とする請求項1に記載の車外情報提供装置。 A detection unit for detecting the person based on imaging information outside the vehicle;
A gesture analysis unit that analyzes a gesture of the person based on a detection result of the detection unit,
The call determination unit
The outside information providing apparatus according to claim 1, wherein it is determined whether the person is making the call based on an analysis result of the gesture analysis unit.
前記人物の所在方向の音声を検出し、
前記検出部の検出結果に基づいて前記音声を解析する音声解析部
を備え、
前記呼びかけ判定部は、
前記音声解析部の解析結果に基づいて前記人物が前記呼びかけを行っているかを判定すること
を特徴とする請求項2に記載の車外情報提供装置。 The detector is
Detecting the voice in the direction of the person,
A voice analysis unit for analyzing the voice based on a detection result of the detection unit;
The call determination unit
The outside information providing apparatus according to claim 2, wherein it is determined whether the person is making the call based on an analysis result of the voice analysis unit.
を備えること
を特徴とする請求項2または3に記載の車外情報提供装置。 The outside information providing apparatus according to claim 2, further comprising: a recognition determination unit that determines whether the passenger recognizes the call by the person based on in-vehicle imaging information.
前記人物による前記呼びかけを前記搭乗者が認識しているかを前記搭乗者の身体情報に基づいて判定すること
を特徴とする請求項4に記載の車外情報提供装置。 The recognition determination unit
The outside information providing apparatus according to claim 4, wherein whether the passenger recognizes the call by the person is determined based on physical information of the passenger.
を備え、
前記呼びかけ判定部は、
前記位置解析部の解析結果に基づいて前記人物が前記呼びかけを行っているかを判定すること
を特徴とする請求項2〜5のいずれか一つに記載の車外情報提供装置。 A position analysis unit that analyzes the position of the person based on the detection result of the detection unit;
The call determination unit
The outside information providing apparatus according to any one of claims 2 to 5, wherein it is determined whether the person is making the call based on an analysis result of the position analysis unit.
前記位置解析部によって前記人物が前記バスの停留所から所定範囲内に存在することが判定され、かつ、前記呼びかけ判定部により前記人物が前記呼びかけを行っていることが判定された場合に、
前記報知部は、
前記人物の存在を前記ドライバに対して報知すること
を特徴とする請求項6に記載の車外情報提供装置。 The passenger is a bus driver,
When it is determined by the position analysis unit that the person is within a predetermined range from the bus stop, and when the call determination unit determines that the person is making the call,
The notification unit
The outside information providing apparatus according to claim 6, wherein the driver is notified of the presence of the person.
前記位置解析部によって前記人物が前記タクシーの乗車可能位置に存在することが判定され、かつ、前記呼びかけ判定部により前記人物が前記呼びかけを行っていることが判定された場合に、
前記報知部は、
前記人物の存在を前記ドライバに対して報知すること
を特徴とする請求項6に記載の車外情報提供装置。 The passenger is a taxi driver,
When it is determined by the position analysis unit that the person is present at the taxi-capable position, and the call determination unit determines that the person is making the call,
The notification unit
The outside information providing apparatus according to claim 6, wherein the driver is notified of the presence of the person.
前記呼びかけ判定工程によって前記人物が前記呼びかけを行っていると判定された場合に、前記人物の存在を前記搭乗者に対して報知する報知工程と
を含むことを特徴とする車外情報提供方法。 A call determination step of detecting a person outside the vehicle and determining whether the person is calling a passenger in the vehicle;
An outside information providing method comprising: a notifying step of notifying the passenger of the presence of the person when the call determining step determines that the person is making the call.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016164958A JP2018030499A (en) | 2016-08-25 | 2016-08-25 | Vehicle outside information providing device and vehicle outside information providing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016164958A JP2018030499A (en) | 2016-08-25 | 2016-08-25 | Vehicle outside information providing device and vehicle outside information providing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018030499A true JP2018030499A (en) | 2018-03-01 |
Family
ID=61304614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016164958A Pending JP2018030499A (en) | 2016-08-25 | 2016-08-25 | Vehicle outside information providing device and vehicle outside information providing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018030499A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110197150A (en) * | 2019-05-27 | 2019-09-03 | 大陆投资(中国)有限公司 | Trip method of servicing, apparatus and system |
WO2020013061A1 (en) * | 2018-07-11 | 2020-01-16 | ソニー株式会社 | Information processing device and information processing method |
JP2020166479A (en) * | 2019-03-29 | 2020-10-08 | 本田技研工業株式会社 | Drive support device |
JP2020531944A (en) * | 2017-08-22 | 2020-11-05 | ウェイモ エルエルシー | Situational awareness stop for autonomous vehicles |
WO2021084618A1 (en) * | 2019-10-29 | 2021-05-06 | 三菱電機株式会社 | Driving assistance device and driving assistance method |
JP2021188304A (en) * | 2020-05-27 | 2021-12-13 | 本田技研工業株式会社 | Vehicle control system and vehicle control method |
JP2021188295A (en) * | 2020-05-27 | 2021-12-13 | 本田技研工業株式会社 | Vehicle control system and vehicle control method |
JP2022179579A (en) * | 2018-03-20 | 2022-12-02 | パイオニア株式会社 | Information searching device |
-
2016
- 2016-08-25 JP JP2016164958A patent/JP2018030499A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020531944A (en) * | 2017-08-22 | 2020-11-05 | ウェイモ エルエルシー | Situational awareness stop for autonomous vehicles |
JP2022109943A (en) * | 2017-08-22 | 2022-07-28 | ウェイモ エルエルシー | Situation recognition stop for autonomous vehicle |
JP7109533B2 (en) | 2017-08-22 | 2022-07-29 | ウェイモ エルエルシー | Situational Aware Stops for Autonomous Vehicles |
US11422558B2 (en) | 2017-08-22 | 2022-08-23 | Waymo Llc | Context aware stopping for autonomous vehicles |
JP7344339B2 (en) | 2017-08-22 | 2023-09-13 | ウェイモ エルエルシー | Situational Aware Parking for Autonomous Vehicles |
JP2022179579A (en) * | 2018-03-20 | 2022-12-02 | パイオニア株式会社 | Information searching device |
WO2020013061A1 (en) * | 2018-07-11 | 2020-01-16 | ソニー株式会社 | Information processing device and information processing method |
JP2020166479A (en) * | 2019-03-29 | 2020-10-08 | 本田技研工業株式会社 | Drive support device |
CN110197150A (en) * | 2019-05-27 | 2019-09-03 | 大陆投资(中国)有限公司 | Trip method of servicing, apparatus and system |
WO2021084618A1 (en) * | 2019-10-29 | 2021-05-06 | 三菱電機株式会社 | Driving assistance device and driving assistance method |
JP2021188304A (en) * | 2020-05-27 | 2021-12-13 | 本田技研工業株式会社 | Vehicle control system and vehicle control method |
JP2021188295A (en) * | 2020-05-27 | 2021-12-13 | 本田技研工業株式会社 | Vehicle control system and vehicle control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018030499A (en) | Vehicle outside information providing device and vehicle outside information providing method | |
JP6751436B2 (en) | Access to autonomous vehicles and driving control | |
CN110321916B (en) | Learning data creation method, learning method, risk prediction device, and program storage medium | |
CN109690609B (en) | Passenger assist device, method, and program | |
JP6513069B2 (en) | Driving support device and driving support method | |
CN106463065B (en) | Driving incapability state detection device for driver | |
JP4380541B2 (en) | Vehicle agent device | |
US10647326B2 (en) | Driving advice apparatus and driving advice method | |
CN107886045B (en) | Facility satisfaction calculation device | |
WO2018046015A1 (en) | Alarm method, device and terminal for vehicle | |
JP2008062852A (en) | Vehicle controller | |
CN108263324A (en) | Pedestrian detection and pedestrian impact preventing mean and method based on pose information | |
JP5029255B2 (en) | Vehicle rear monitoring device | |
JP2008070965A (en) | Vehicle control apparatus and vehicle control method | |
JP6075577B2 (en) | Driving assistance device | |
JP6673191B2 (en) | Alarm output device | |
JP2009070344A (en) | Image recognition device, image recognition method, and electronic control device | |
JP2010111275A (en) | On-vehicle alarm device, alarm method and alarm program | |
US20210179148A1 (en) | Autonomous vehicle for blind people | |
CN111601736B (en) | Passenger detection device, passenger detection system, and passenger detection method | |
JP2008068665A (en) | Vehicle control apparatus and vehicle control method | |
JP6631545B2 (en) | Dependency estimator | |
JP2019098780A (en) | Driving advice device and driving advice method | |
CN111976595A (en) | Door opening assist system, vehicle including the same, and corresponding method and medium | |
JP2012121387A (en) | Vehicle interior monitoring device |