JP6558234B2 - Destination estimation device - Google Patents

Destination estimation device Download PDF

Info

Publication number
JP6558234B2
JP6558234B2 JP2015240525A JP2015240525A JP6558234B2 JP 6558234 B2 JP6558234 B2 JP 6558234B2 JP 2015240525 A JP2015240525 A JP 2015240525A JP 2015240525 A JP2015240525 A JP 2015240525A JP 6558234 B2 JP6558234 B2 JP 6558234B2
Authority
JP
Japan
Prior art keywords
vehicle
destination
user
person
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015240525A
Other languages
Japanese (ja)
Other versions
JP2017107392A (en
Inventor
宮田 正浩
正浩 宮田
中智 周
中智 周
匡章 坂本
匡章 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015240525A priority Critical patent/JP6558234B2/en
Publication of JP2017107392A publication Critical patent/JP2017107392A/en
Application granted granted Critical
Publication of JP6558234B2 publication Critical patent/JP6558234B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車載装置に設定される目的地を推定する目的地推定装置の技術分野に関する。   The present invention relates to a technical field of a destination estimation device that estimates a destination set in an in-vehicle device.

この種の装置として、例えば、車両に積載された物品又はユーザが携行する物品に関する識別情報と、目的地やジャンルと関連する携行品が記述された携行品データベースとに基づいて、目的地の設定を支援する装置が提案されている。   As this type of device, for example, based on identification information relating to an article loaded on a vehicle or an article carried by a user, and a carrying article database in which a carrying article relating to a destination or a genre is described, a destination is set. An apparatus for supporting the above has been proposed.

特開2006−145494号公報JP 2006-145494 A

特許文献1に記載の技術には改善の余地がある。   There is room for improvement in the technique described in Patent Document 1.

本発明は、上記事実に鑑みてなされたものであり、目的地を好適に推定することができる目的地推定装置を提供することを課題とする。   This invention is made | formed in view of the said fact, and makes it a subject to provide the destination estimation apparatus which can estimate a destination suitably.

本発明の目的地推定装置は、上記課題を解決するために、車両に搭載された目的地推定装置であって、前記車両の周辺の少なくとも一部を撮像する撮像部と、前記車両の2以上のユーザ各々の顔画像を含むユーザ画像情報を予め記憶する記憶部と、前記撮像部により撮像された画像と、前記ユーザ画像情報とを照合して、前記車両のユーザを認識する認識部と、前記認識部により複数のユーザが認識された場合、前記認識された複数のユーザの組み合わせに応じて一又は複数の目的地を推定する推定部と、前記認識された複数のユーザのうち、前記推定部により目的地が推定された後に前記車両に乗車したユーザに応じて、前記推定された目的地の少なくとも一部を提案する提案部と、を備える。   In order to solve the above problems, a destination estimation device according to the present invention is a destination estimation device mounted on a vehicle, and includes an imaging unit that images at least a part of the periphery of the vehicle, and two or more of the vehicles. A storage unit that stores user image information including face images of each of the users in advance, an image captured by the imaging unit, and a recognition unit that recognizes the user of the vehicle by comparing the user image information; When a plurality of users are recognized by the recognition unit, an estimation unit that estimates one or a plurality of destinations according to a combination of the recognized plurality of users, and the estimation among the plurality of recognized users And a proposing unit that proposes at least a part of the estimated destination according to a user who has boarded the vehicle after the destination is estimated by the unit.

ドライバーの他に同乗者がいる場合、同乗者がいない場合に比べて車両の目的地の選択肢の幅が広がる。ここで、本発明に係る「目的地」は、最終目的地に限らず、経由地も含む概念である。具体的には、同乗者を学校へ送った後、ドライバーが会社へ向かう場合、学校及び会社が目的地となる。或いは、同乗者を、自宅から最寄駅まで送った後、自宅へ帰る場合、最寄駅及び自宅が目的地となる。   When there is a passenger in addition to the driver, the range of options for the destination of the vehicle is wider than when there is no passenger. Here, the “destination” according to the present invention is a concept including not only the final destination but also a waypoint. Specifically, if the driver goes to the company after sending the passenger to the school, the school and the company are the destinations. Alternatively, when the passenger is sent from his / her home to the nearest station and then returns to his / her home, the nearest station / home is the destination.

本発明では、推定部により、複数のユーザの組み合わせに応じて一又は複数の目的地が推定される。つまり推定部は、例えば、複数のユーザのうち一のユーザのみが乗車する場合の目的地と、該一のユーザと他のユーザとが乗車する場合の目的地と、を推定する。このように本発明では、ドライバーだけでなく同乗者も考慮して目的地が推定されるので、好適に目的地を推定することができる。   In the present invention, the estimation unit estimates one or a plurality of destinations according to a combination of a plurality of users. That is, the estimation unit estimates, for example, a destination when only one of the plurality of users gets on and a destination when the one user and another user get on. As described above, in the present invention, since the destination is estimated in consideration of not only the driver but also the passenger, the destination can be estimated appropriately.

例えば、一のユーザを見送るために他のユーザが車両の周囲にいる場合等、認識部により認識されたユーザの全てが乗車するとは限らない。そこで本発明では、提案部により、推定部により目的地が推定された後に車両に乗車したユーザに応じて、推定された目的地の少なくとも一部が提案される。   For example, not all of the users recognized by the recognition unit may get on, such as when another user is around the vehicle to see off one user. Therefore, in the present invention, the proposing unit proposes at least a part of the estimated destination according to the user who gets on the vehicle after the estimating unit estimates the destination.

このように構成すれば、乗車したユーザへの目的地の提案精度を向上することができ、実用上非常に有利である。加えて、ユーザが乗車する前に、推定部により目的地が推定されるので、ユーザが乗車した後目的地が提案されるまでの時間を短縮することができる。   If comprised in this way, the proposal precision of the destination to the boarded user can be improved, and it is very advantageous practically. In addition, since the destination is estimated by the estimation unit before the user gets on, the time until the destination is proposed after the user gets on can be shortened.

本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。   The effect | action and other gain of this invention are clarified from the form for implementing demonstrated below.

実施形態に係る目的地推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the destination estimation apparatus which concerns on embodiment. 実施形態に係るECUが実行する処理の一部を示すフローチャートである。It is a flowchart which shows a part of process which ECU which concerns on embodiment performs. 実施形態に係る目的地推定処理を示すフローチャートである。It is a flowchart which shows the destination estimation process which concerns on embodiment.

本発明の目的地推定装置に係る実施形態について、図1乃至図3を参照して説明する。本実施形態に係る目的地推定装置は、ドライバーだけでなく同乗者をも考慮して目的地を推定するので、目的地を好適に推定することができる。以下では、先ず、目的地推定装置が搭載される車両及び目的地推定装置の構成を説明し、次に、車両の動作及び目的地推定処理について説明する。   An embodiment according to a destination estimation apparatus of the present invention will be described with reference to FIGS. 1 to 3. Since the destination estimation apparatus according to the present embodiment estimates the destination in consideration of not only the driver but also the passenger, the destination can be suitably estimated. In the following, first, the configuration of the vehicle on which the destination estimation apparatus is mounted and the destination estimation apparatus will be described, and then the operation of the vehicle and the destination estimation process will be described.

(車両の構成)
実施形態に係る車両の構成について、図1を参照して説明する。尚、本実施形態に係る車両は、駆動源としてエンジンのみを備える車両(所謂コンベンショナル車)であってもよいし、ハイブリッド車両であってもよいし、或いは、電気自動車であってもよい。
(Vehicle configuration)
The configuration of the vehicle according to the embodiment will be described with reference to FIG. Note that the vehicle according to the present embodiment may be a vehicle (so-called conventional vehicle) that includes only an engine as a drive source, a hybrid vehicle, or an electric vehicle.

図1において、車両1は、車両制御用ECU(Electronic Control Unit:電子制御ユニット)20と、当該車両1に対応する電子キー30から発信される電波信号を受信する受信部21a〜21dと、を備えて構成されている。受信部21a〜21d各々の取り付け位置は任意であるが、各受信部21a〜21dが受信した電波信号に基づいて電子キー30の位置を特定できるように配置されている。   In FIG. 1, a vehicle 1 includes a vehicle control ECU (Electronic Control Unit) 20 and reception units 21 a to 21 d that receive radio signals transmitted from an electronic key 30 corresponding to the vehicle 1. It is prepared for. The mounting positions of the receiving units 21a to 21d are arbitrary, but are arranged so that the position of the electronic key 30 can be specified based on the radio signals received by the receiving units 21a to 21d.

車両1は、ドライバーが当該車両1に乗車していなくても、駐車位置から所定距離だけ自動的に走行可能に構成されている(以降、適宜“自動出庫”と称する)。この自動出庫には、例えば特開2013−177128号公報に記載の技術を適用可能であるので、その詳細についての説明は割愛する。   The vehicle 1 is configured to automatically travel a predetermined distance from the parking position even if the driver is not on the vehicle 1 (hereinafter referred to as “automatic delivery” as appropriate). For example, the technology described in Japanese Patent Application Laid-Open No. 2013-177128 can be applied to this automatic delivery, and the detailed description thereof is omitted.

(目的地推定装置の構成)
実施形態に係る目的地推定装置の構成について、図1を参照して説明する。図1において、目的地推定装置10は、ナビゲーションECU(以降、適宜“ナビECU”と称する)11と、認識用パーソナルコンピュータ(以降、適宜“認識用PC”と称する)12と、車両1の周辺の少なくとも一部を撮像するカメラ13と、車両1の車内の少なくとも一部を撮像するカメラ14と、例えば無線機や携帯電話等であるDCM(Data Communication Module)15と、を備えて構成されている。
(Configuration of destination estimation device)
The configuration of the destination estimation apparatus according to the embodiment will be described with reference to FIG. In FIG. 1, a destination estimation device 10 includes a navigation ECU (hereinafter referred to as “navigation ECU” as appropriate) 11, a recognition personal computer (hereinafter referred to as “recognition PC” as appropriate) 12, and the vicinity of the vehicle 1. A camera 13 that captures at least a part of the vehicle, a camera 14 that captures at least a part of the inside of the vehicle 1, and a DCM (Data Communication Module) 15 that is, for example, a radio or a mobile phone. Yes.

ナビECU11は、車両1に搭載されたカーナビゲーションシステムの一部を構成している。このため、ナビECU11は、例えば、地図データベース(不図示)にアクセスすることができると共に、過去の目的地や走行ルート等に係る履歴データを有している。   The navigation ECU 11 constitutes a part of a car navigation system mounted on the vehicle 1. For this reason, for example, the navigation ECU 11 can access a map database (not shown) and has history data related to past destinations, travel routes, and the like.

認識用PC12は、車両1のユーザの顔画像を含むユーザ画像情報を予め記憶する、例えばハードディスクや不揮発性メモリ等の記憶部(不図示)を有している。本実施形態では特に、記憶部には、2以上のユーザ各々の顔画像を含むユーザ画像情報が予め記憶されているものとする。   The recognition PC 12 has a storage unit (not shown) such as a hard disk or a nonvolatile memory that stores user image information including the face image of the user of the vehicle 1 in advance. Particularly in the present embodiment, it is assumed that user image information including face images of two or more users is stored in advance in the storage unit.

ユーザ画像情報には、顔画像の他に、ユーザIDや個人を特定するための情報(例えば氏名、年齢、性別、住所等)が含まれている。尚、ユーザ画像情報の記憶(登録)方法については、既存の技術を適用可能であるので、その詳細についての説明は割愛する。   In addition to the face image, the user image information includes information for specifying a user ID and an individual (for example, name, age, sex, address, etc.). It should be noted that the existing technique can be applied to the user image information storage (registration) method, and the detailed description thereof will be omitted.

カメラ13及び14各々は、1台のカメラに限らず、複数台のカメラから構成されていてよい。   Each of the cameras 13 and 14 is not limited to one camera, and may be composed of a plurality of cameras.

(車両制御用のECUの動作)
次に、車両制御用ECU20が、車両1が駐車スペースに駐車しているときに実行する処理について、図2のフローチャートを参照して説明する。車両制御用ECU20及び受信部21a〜21dには、車両1の駐車時(即ち、イグニッションオフ時)にも微小電力が、バッテリ(不図示)から供給されている。
(Operation of ECU for vehicle control)
Next, processing executed by the vehicle control ECU 20 when the vehicle 1 is parked in the parking space will be described with reference to the flowchart of FIG. The vehicle control ECU 20 and the receivers 21a to 21d are supplied with minute electric power from a battery (not shown) even when the vehicle 1 is parked (that is, when the ignition is off).

図2(a)において、車両制御用ECU20は、車両1のドライバー(ここでは、電子キー30を所持している人)の接近を検出する(ステップS101)。具体的には、車両制御用ECU20は、電子キー30から発信される電波信号の、受信部21a〜21dの少なくとも一つにおける受信強度に基づいて、車両1とドライバーとの間の距離を推定する。車両制御用ECU20は、該推定された距離が所定距離以内である場合に、ドライバーの接近が検出されたと判定する。   2A, the vehicle control ECU 20 detects the approach of the driver of the vehicle 1 (here, the person holding the electronic key 30) (step S101). Specifically, the vehicle control ECU 20 estimates the distance between the vehicle 1 and the driver based on the reception intensity of the radio signal transmitted from the electronic key 30 in at least one of the reception units 21a to 21d. . The vehicle control ECU 20 determines that the approach of the driver has been detected when the estimated distance is within a predetermined distance.

尚、車両制御用ECU20は、電子キー30から発信される電波信号の受信強度の時間変化に基づいて、ドライバーの移動速度を求め、該求められた移動速度が所定速度以上の場合は、ドライバーの接近ではないと判定してよい(この場合、ドライバーが車両1の周囲を通り過ぎる可能性が高い)。   The vehicle control ECU 20 obtains the moving speed of the driver based on the time change of the reception intensity of the radio signal transmitted from the electronic key 30. If the obtained moving speed is equal to or higher than the predetermined speed, the vehicle control ECU 20 It may be determined that the vehicle is not approaching (in this case, the driver is likely to pass around the vehicle 1).

ステップS101の処理において、ドライバーの接近が検出されない場合(ステップS101:No)、車両制御用ECU20は、一旦処理を終了し、所定時間後に再びステップS101の処理を実行する。   When the approach of the driver is not detected in the process of step S101 (step S101: No), the vehicle control ECU 20 once ends the process, and executes the process of step S101 again after a predetermined time.

他方、ステップS101の処理において、ドライバーの接近が検出された場合(ステップS101:Yes)、車両制御用ECU20は、車両1の電源を投入する(ステップS102)。ここで、「電源を投入」とは、所謂コンベンショナル車であれば、主要な電装品が立ち上がり、エンジンを始動させることができる状態を意味し、ハイブリッド車や電気自動車であれば、走行可能な状態(所謂レディ状態)を意味する。   On the other hand, when the approach of the driver is detected in the process of step S101 (step S101: Yes), the vehicle control ECU 20 turns on the power of the vehicle 1 (step S102). Here, “turning on the power” means a state in which main electrical components can be started and the engine can be started in a so-called conventional vehicle, and in a hybrid vehicle or an electric vehicle, the vehicle can be driven. (So-called ready state).

図2(b)において、ステップS102の処理により車両1の電源が投入された後、車両制御用ECU20は、出庫要求があるか否かを判定する(ステップS111)。具体的には、車両制御用ECU20は、例えば、自動出庫制御の実行を示す信号が受信された場合に出庫要求があると判定し、ステップS111の処理開始から所定時間以内に自動出庫制御の実行を示す信号が受信されない場合には出庫要求がないと判定する。   In FIG.2 (b), after the vehicle 1 is turned on by the process of step S102, the vehicle control ECU 20 determines whether or not there is a delivery request (step S111). Specifically, for example, the vehicle control ECU 20 determines that there is a delivery request when a signal indicating execution of the automatic delivery control is received, and executes the automatic delivery control within a predetermined time from the start of the processing in step S111. If a signal indicating “No” is not received, it is determined that there is no delivery request.

ステップS111の処理において、出庫要求があると判定された場合(ステップS111:Yes)、車両制御用ECU20は、所定の自動出庫制御を実行する(ステップS112)。他方、ステップS111の処理において、出庫要求がないと判定された場合(ステップS111:No)、車両制御用ECU20は、一旦処理を終了し、所定時間後に再びステップS111の処理を実行する。   In the process of step S111, when it is determined that there is a delivery request (step S111: Yes), the vehicle control ECU 20 executes predetermined automatic delivery control (step S112). On the other hand, if it is determined in step S111 that there is no exit request (step S111: No), the vehicle control ECU 20 once ends the process, and again executes step S111 after a predetermined time.

(目的地推定処理)
次に、図2(b)のフローチャートに示される処理と並行して実行される、本実施形態に係る目的地推定処理について、図3のフローチャートを参照して説明する。
(Destination estimation processing)
Next, the destination estimation process according to the present embodiment that is executed in parallel with the process shown in the flowchart of FIG. 2B will be described with reference to the flowchart of FIG.

本実施形態に係る目的地推定処理は、(i)服装に関するデータベース及び携行品に関するデータベースが、クラウド(即ち、インターネット上のサーバ等)に予め構築されていること、(ii)認識用PC12の記憶部に予め記憶されているユーザ画像情報により示されるユーザ毎の、例えば目的地履歴、検索履歴、メール情報、スケジュール情報等の個人情報を利用可能であること、を前提としている。尚、(i)及び(ii)の前提を実現する技術には、既存の技術を適用可能である。   The destination estimation processing according to the present embodiment includes (i) that a database relating to clothes and a database relating to carry-on items are built in advance in the cloud (that is, a server on the Internet), and (ii) storing in the recognition PC 12 For example, it is assumed that personal information such as destination history, search history, mail information, schedule information, and the like for each user indicated by the user image information stored in advance in the section can be used. An existing technique can be applied to the technique that realizes the premises of (i) and (ii).

1.認識用PCの動作(1):
図3において、認識用PC12は、上述のステップS102の処理により車両1の電源が投入された後、受信部21a〜21d各々において受信された電子キー30から発信される電波信号の受信強度に基づいて、電子キー30の位置(例えば、車両1を中心とした方角、車両1からの距離等)を特定する(ステップS211)。尚、電子キー30の位置特定方法には、既存の技術を適用可能であるので、その詳細についての説明は割愛する。
1. Recognition PC operation (1):
In FIG. 3, the recognition PC 12 is based on the reception intensity of the radio wave signal transmitted from the electronic key 30 received by each of the receiving units 21 a to 21 d after the vehicle 1 is turned on by the process of step S <b> 102 described above. Then, the position of the electronic key 30 (for example, a direction around the vehicle 1, a distance from the vehicle 1, etc.) is specified (step S211). Since the existing technique can be applied to the method for specifying the position of the electronic key 30, the detailed description thereof is omitted.

次に、認識用PC12は、カメラ13により撮像された画像のうち、ステップS211の処理において特定された電子キー30の位置に相当する画像と、記憶部に予め記憶されているユーザ画像情報に含まれる顔画像とを照合する(ステップS212)。   Next, the PC for recognition 12 is included in the image corresponding to the position of the electronic key 30 specified in the process of step S211 among the images captured by the camera 13 and the user image information stored in advance in the storage unit. The face image to be checked is collated (step S212).

次に、認識用PC12は、ドライバー(ここでは、電子キー30を所持しているユーザ)を特定したか否かを判定する(ステップS213)。具体的には、認識用PC21は、カメラ13により撮像された画像とユーザ画像情報に含まれる顔画像とを照合して(つまり、顔画像に基づく顔認証を行い)、該当者がいた場合に、ドライバーを特定したと判定する。他方で、該当者がいない場合、認識用PC12は、ドライバーを特定していないと判定する。尚、「該当者がいない場合」は、ユーザ画像情報により示されるユーザがいない場合に限らず、例えば他人や建造物等の何らかの障害物により、ユーザが鮮明に撮像されず、顔認証ができなかった場合も含む。   Next, the recognition PC 12 determines whether or not a driver (here, a user who possesses the electronic key 30) has been identified (step S213). Specifically, the recognition PC 21 compares the image captured by the camera 13 with the face image included in the user image information (that is, performs face authentication based on the face image), and there is a corresponding person. It is determined that the driver has been identified. On the other hand, when there is no corresponding person, the recognition PC 12 determines that the driver is not specified. Note that “there is no corresponding person” is not limited to the case where there is no user indicated by the user image information. For example, the user cannot be clearly imaged due to some obstacle such as another person or a building, and face authentication cannot be performed. Including cases.

ステップS212の処理において、ドライバーを特定していないと判定された場合(ステップS212:No)、認識用PC21は、処理を一旦終了し、所定時間後に再びステップS211の処理を実行する。   If it is determined in step S212 that the driver has not been identified (step S212: No), the recognition PC 21 once ends the process, and again executes step S211 after a predetermined time.

他方、ステップS212の処理において、ドライバーを特定したと判定された場合(ステップS212:Yes)、認識用PC12は、カメラ13により撮像された画像から、特定されたドライバーの恰好、持ち物、服装を認識する(ステップS214)。具体的には、認識用PC21は、クラウドに予め構築されている服装に関するデータベース及び携行品に関するデータベースを参照して、カメラ13により撮像された画像から、特定されたドライバーの恰好等を認識する。   On the other hand, if it is determined in step S212 that the driver has been identified (step S212: Yes), the recognition PC 12 recognizes the identified driver's preferences, belongings, and clothes from the image captured by the camera 13. (Step S214). Specifically, the recognition PC 21 refers to a database relating to clothes and a database relating to personal belongings that are built in advance in the cloud, and recognizes the preferences of the identified driver from the image captured by the camera 13.

このステップS214の処理での恰好等の認識は、例えばカバンであれば、ビジネスカバン、旅行カバン、ゴルフバッグ等、少なくともジャンル(ここでは、“ビジネス”、“旅行”、“ゴルフ”)が区別できる程度であればよい。後述するステップS216の処理も同様。   For example, if the bag is recognized as a bag in the process of step S214, at least a genre (in this case, “business”, “travel”, “golf”) such as a business bag, a travel bag, and a golf bag can be distinguished. Any degree is acceptable. The same applies to the processing in step S216 described later.

ステップS214の処理の後、認識用PC12は、特定されたドライバーに係る情報(例えば、ユーザ画像情報に含まれるユーザIDや個人を特定するための情報、認識された格好等に関する情報)を、ナビECU11に送信する。   After the processing in step S214, the recognition PC 12 navigates information related to the identified driver (for example, information related to the user ID and the individual included in the user image information, information related to the recognized appearance, etc.). It transmits to ECU11.

ステップS214の処理の後、認識用PC12は、更に、カメラ13により撮像された画像と、記憶部に予め記憶されているユーザ画像情報に含まれる顔画像とを照合して、ドライバーとして特定されたユーザの他にユーザいるか否かを判定する(ステップS215)。具体的には、図1の人Aがドライバーとして特定された場合、認識用PC21は、人B及び人Cがユーザであるか否かを判定する。   After the processing in step S214, the recognition PC 12 further identifies the driver by comparing the image captured by the camera 13 with the face image included in the user image information stored in advance in the storage unit. It is determined whether or not the user other than the user (step S215). Specifically, when the person A in FIG. 1 is specified as a driver, the recognition PC 21 determines whether the person B and the person C are users.

ステップS215の処理において、他のユーザがいると判定された場合(ステップS215:Yes)、認識用PC12は、上述のステップS214の処理と同様に、他のユーザの恰好等を認識する(ステップS216)。その後、他のユーザに係る情報をナビECU11に送信し、後述するステップS217の処理を実行する。   In the process of step S215, when it is determined that there is another user (step S215: Yes), the recognition PC 12 recognizes the preferences of other users (step S216) in the same manner as the process of step S214 described above. ). Thereafter, information related to other users is transmitted to the navigation ECU 11, and a process of step S217 described later is executed.

他方、ステップS215の処理において、他のユーザがいないと判定された場合(ステップS215:No)、認識用PC12は、他のユーザがいないことを示す情報をナビECU11に送信し、後述するステップS217の処理を実行する。   On the other hand, if it is determined in step S215 that there is no other user (step S215: No), the recognition PC 12 transmits information indicating that there is no other user to the navigation ECU 11, and will be described later in step S217. Execute the process.

2.ナビECUの動作(1):
上述のステップS215の処理と並行して、ナビECU11は、認識用PC12から送信された特定されたドライバーに係る情報に基づいて、DCM15を介して、クラウドから、特定されたドライバーに関する、例えば目的地履歴、検索履歴、メール情報、スケジュール情報等の個人情報を取得する(ステップS221)。
2. Operation of the navigation ECU (1):
In parallel with the processing in step S215 described above, the navigation ECU 11 performs, for example, a destination related to the identified driver from the cloud via the DCM 15 based on the information related to the identified driver transmitted from the recognition PC 12. Personal information such as history, search history, mail information, schedule information is acquired (step S221).

次に、ナビECU11は、他のユーザがいるか否かを判定する(ステップS222)。具体的には、ナビECU11は、認識用PC12から他のユーザに係る情報を受信した場合に、他のユーザがいると判定し、認識用PC12から他のユーザがいないことを示す情報を受信した場合に、他のユーザがいないと判定する。   Next, the navigation ECU 11 determines whether there is another user (step S222). Specifically, when the navigation ECU 11 receives information related to another user from the recognition PC 12, the navigation ECU 11 determines that there is another user, and receives information indicating that there is no other user from the recognition PC 12. In this case, it is determined that there is no other user.

ステップ222の処理において、他のユーザがいると判定された場合(ステップS222:Yes)、ナビECU11は、他のユーザに係る情報に基づいて、DCM15を介して、クラウドから、他のユーザに関する個人情報を取得する(ステップS223)。   When it is determined in the process of step 222 that there is another user (step S222: Yes), the navigation ECU 11 sends the individual related to the other user from the cloud via the DCM 15 based on the information related to the other user. Information is acquired (step S223).

次に、ナビECU11は、特定されたドライバーに係る情報及びクラウドから取得した個人情報、並びに他のユーザに係る情報及びクラウドから取得した個人情報、更には、日時や曜日に基づいて、ドライバーのみが車両1に乗車する場合の目的地と、ドライバー及び他のユーザが車両1に乗車する場合の目的地と、を推定する(ステップS224)。   Next, the navigation ECU 11 determines only the driver based on the information related to the identified driver and the personal information acquired from the cloud, the information related to other users and the personal information acquired from the cloud, and the date and day of the week. A destination for boarding the vehicle 1 and a destination for a driver and other users to board the vehicle 1 are estimated (step S224).

例えば、人A(図1参照)がドライバーとして特定され、人B及び人C(図1参照)が他のユーザとして特定された場合、ナビECU11は、(i)人Aのみが車両1に乗車する場合の目的地、(ii)人A及び人Bが車両1に乗車する場合の目的地、(iii)人A及び人Cが車両1に乗車する場合の目的地、(iv)人A、人B及び人Cが車両1に乗車する場合の目的地、を推定する。   For example, when person A (see FIG. 1) is specified as a driver and person B and person C (see FIG. 1) are specified as other users, the navigation ECU 11 (i) only person A gets on the vehicle 1 (Ii) a destination when people A and B get on the vehicle 1, (iii) a destination when people A and C get on the vehicle 1, (iv) a person A, A destination when the person B and the person C get on the vehicle 1 is estimated.

具体的には、平日の朝に、人Aがビジネスカバンを所持しており、人Aの子供である人B及び人Cが人Aの周囲にいる場合、ナビECU11は、人B及び人Cが通っている学校を経由して、人Aが職場に向かうと推定し、学校及び職場を目的地として推定する。   Specifically, on the morning of a weekday, when the person A has a business bag and the persons B and C who are children of the person A are around the person A, the navigation ECU 11 determines that the person B and the person C It is presumed that the person A goes to the workplace via the school where the school goes, and the school and the workplace are estimated as the destination.

ステップS224の後、ナビECU11は、後述するステップS226の処理を実行する。   After step S224, the navigation ECU 11 executes a process of step S226 described later.

他方、ステップS222の処理において、他のユーザがいないと判定された場合(ステップS222:No)、ナビECU11は、特定されたドライバーに係る情報及びクラウドから取得した個人情報、更には、日時や曜日に基づいて、目的地を推定する(ステップS225)。その後、ナビECU11は、後述するステップS226の処理を実行する。   On the other hand, if it is determined in step S222 that there is no other user (step S222: No), the navigation ECU 11 determines the information related to the identified driver and the personal information acquired from the cloud, as well as the date and day of the week. The destination is estimated based on (Step S225). Thereafter, the navigation ECU 11 performs a process of step S226 described later.

3.認識用PCの動作(2):
上述のステップS216の処理の後、認識用PC12は、車両1に人が乗車したか否かを判定する(ステップS217)。尚、上述のステップS112の自動出庫制御(図2(b)参照)が実行されている場合は、車両1の停止後にステップS217の処理が行われる。乗車判定には、既存の各種態様を適用可能であるので、その詳細についての説明は割愛する。
3. Recognition PC operation (2):
After the process of step S216 described above, the recognition PC 12 determines whether a person has boarded the vehicle 1 (step S217). In addition, when the automatic leaving control (see FIG. 2B) of step S112 described above is performed, the process of step S217 is performed after the vehicle 1 is stopped. Since various existing aspects can be applied to the boarding determination, a detailed description thereof is omitted.

ステップS217の処理において、乗車していないと判定された場合(ステップS217:No)、認識用PC12は、所定時間後に再びステップS217の処理を実行する(即ち、待機状態となる)。   If it is determined in step S217 that the vehicle is not on board (step S217: No), the recognition PC 12 executes the process of step S217 again after a predetermined time (that is, enters a standby state).

他方、ステップS217の処理において、乗車したと判定された場合(ステップS217:Yes)、認識用PC12は、カメラ14により撮像された画像(即ち、車内の画像)と、特定されたドライバーに対応するユーザ画像情報に含まれる顔画像(他のユーザがいる場合には、更に、他のユーザに対応するユーザ画像情報に含まれる顔画像)とを照合して、車両1に乗車した人を特定する(ステップS218)。その後、認識用PC12は、特定した人を示す情報を、ナビECU11に送信する。   On the other hand, if it is determined in step S217 that the vehicle has been boarded (step S217: Yes), the recognition PC 12 corresponds to the image captured by the camera 14 (that is, the image inside the vehicle) and the identified driver. The face image included in the user image information (when there is another user, the face image included in the user image information corresponding to the other user) is further collated, and the person who gets on the vehicle 1 is specified. (Step S218). Thereafter, the recognition PC 12 transmits information indicating the identified person to the navigation ECU 11.

4.ナビECUの動作(2):
上述のステップS224の処理又はステップS226の処理の後、ナビECU11は、認識用PC12から送信された特定した人を示す情報に基づいて、車両1に乗車した人が、特定されたドライバーのみであるか否かを判定する(ステップS226)。
4). Operation of the navigation ECU (2):
After the process of step S224 or the process of step S226 described above, the navigation ECU 11 is the only driver who has boarded the vehicle 1 based on the information indicating the specified person transmitted from the recognition PC 12. It is determined whether or not (step S226).

ステップS226の処理において、特定されたドライバーのみが車両1に乗車したと判定された場合(ステップS226:Yes)、ナビECU11は、推定された目的地のうち、ドライバーのみが乗車する場合の目的地を、例えばナビゲーションシステムのディスプレイ(不図示)上に表示することによって、提案する(ステップS227)。   In the process of step S226, when it is determined that only the identified driver has boarded the vehicle 1 (step S226: Yes), the navigation ECU 11 determines the destination when only the driver gets on among the estimated destinations. Is proposed, for example, by displaying it on a display (not shown) of the navigation system (step S227).

他方、ステップS226の処理において、特定されたドライバー及び他のユーザが車両1に乗車したと判定された場合(ステップS226:No)、ナビECU11は、推定された目的地のうち、ドライバー及び他のユーザが乗車する場合の目的地を提案する(ステップS228)。   On the other hand, in the process of step S226, when it is determined that the identified driver and another user have boarded the vehicle 1 (step S226: No), the navigation ECU 11 determines that the driver and other users out of the estimated destinations. A destination for the user to get on is proposed (step S228).

具体的には、人A及び人Bが車両1に乗車したと判定された場合、ナビECU11は、推定された目的地のうち、人A及び人Bが車両1に乗車する場合の目的地を提案する。人A及び人Cが車両1に乗車したと判定された場合、ナビECU11は、推定された目的地のうち、人A及び人Cが車両1に乗車する場合の目的地を提案する。人A、人B及び人Cが車両1に乗車したと判定された場合、ナビECU11は、推定された目的地のうち、人A、人B及び人Cが車両1に乗車する場合の目的地を提案する。   Specifically, when it is determined that the person A and the person B get on the vehicle 1, the navigation ECU 11 selects the destination when the person A and the person B get on the vehicle 1 among the estimated destinations. suggest. When it is determined that the person A and the person C get on the vehicle 1, the navigation ECU 11 proposes a destination when the person A and the person C get on the vehicle 1 among the estimated destinations. When it is determined that the person A, the person B, and the person C get on the vehicle 1, the navigation ECU 11 determines the destination when the person A, the person B, and the person C get on the vehicle 1 among the estimated destinations. Propose.

(実施形態に係る目的地推定処理の効果)
上述の如く、認識用PC12により複数のユーザが認識された場合、ナビECU11は該複数のユーザの組み合わせに応じて、一又は複数の目的地を推定する。本実施形態では、ドライバーとして特定された人だけでなく、車両1に同乗すると推定される人も考慮して目的地が推定されるので、目的地を好適に推定することができる。
(Effect of destination estimation processing according to the embodiment)
As described above, when a plurality of users are recognized by the recognition PC 12, the navigation ECU 11 estimates one or a plurality of destinations according to the combination of the plurality of users. In the present embodiment, since the destination is estimated in consideration of not only the person specified as the driver but also the person who is estimated to ride in the vehicle 1, the destination can be suitably estimated.

更に、ナビECU11は、推定された目的地のうち、車両1に実際に乗車した人に応じた目的地を提案する。従って、目的地の提案精度を向上することができる。また、ユーザの車両1への乗車前から目的地の推定が開始されるので、ユーザが車両1へ乗車した後、目的地が提案されるまでの時間を短縮することができる。   Further, the navigation ECU 11 proposes a destination according to a person who actually gets on the vehicle 1 among the estimated destinations. Therefore, it is possible to improve the destination proposal accuracy. In addition, since the estimation of the destination is started before the user gets on the vehicle 1, it is possible to shorten the time until the destination is proposed after the user gets on the vehicle 1.

実施形態に係る「ナビECU11」は、本発明に係る「推定部」及び「提案部」の一例である。実施形態に係る「認識用PC12」は、本発明に係る「記憶部」及び「認識部」の一例である。実施形態に係る「カメラ13」は、本発明に係る「撮像部」の一例である。   The “navi ECU 11” according to the embodiment is an example of the “estimating unit” and the “proposing unit” according to the present invention. The “recognition PC 12” according to the embodiment is an example of the “storage unit” and the “recognition unit” according to the present invention. The “camera 13” according to the embodiment is an example of the “imaging unit” according to the present invention.

本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う目的地推定装置もまた本発明の技術的範囲に含まれるものである。   The present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification. The apparatus is also included in the technical scope of the present invention.

1…車両、10…目的地推定装置、11…ナビゲーションECU、12…認識用パーソナルコンピュータ、13、14…カメラ、15…DCM、20…車両制御用ECU、21a、21b、21c、21d…受信部、30…電子キー   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 10 ... Destination estimation apparatus, 11 ... Navigation ECU, 12 ... Recognition personal computer, 13, 14 ... Camera, 15 ... DCM, 20 ... Vehicle control ECU, 21a, 21b, 21c, 21d ... Receiver 30 ... Electronic key

Claims (1)

車両に搭載された目的地推定装置であって、
前記車両の周辺の少なくとも一部を撮像する撮像部と、
前記車両の2以上のユーザ各々の顔画像を含むユーザ画像情報を予め記憶する記憶部と、
前記撮像部により撮像された画像と、前記ユーザ画像情報とを照合して、前記車両のユーザを認識する認識部と、
前記認識部により複数のユーザが認識された場合、前記認識された複数のユーザの組み合わせに応じて一又は複数の目的地を推定する推定部と、
前記認識された複数のユーザのうち、前記推定部により目的地が推定された後に前記車両に乗車したユーザに応じて、前記推定された目的地の少なくとも一部を提案する提案部と、
を備えることを特徴とする目的地推定装置。
A destination estimation device mounted on a vehicle,
An imaging unit for imaging at least a part of the periphery of the vehicle;
A storage unit that stores in advance user image information including face images of two or more users of the vehicle;
A recognition unit for recognizing a user of the vehicle by comparing the image captured by the imaging unit with the user image information;
When a plurality of users are recognized by the recognition unit, an estimation unit that estimates one or a plurality of destinations according to a combination of the recognized plurality of users;
Among the plurality of recognized users, a proposal unit that proposes at least a part of the estimated destination according to a user who has boarded the vehicle after the destination is estimated by the estimation unit;
A destination estimation apparatus comprising:
JP2015240525A 2015-12-09 2015-12-09 Destination estimation device Expired - Fee Related JP6558234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015240525A JP6558234B2 (en) 2015-12-09 2015-12-09 Destination estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015240525A JP6558234B2 (en) 2015-12-09 2015-12-09 Destination estimation device

Publications (2)

Publication Number Publication Date
JP2017107392A JP2017107392A (en) 2017-06-15
JP6558234B2 true JP6558234B2 (en) 2019-08-14

Family

ID=59059829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015240525A Expired - Fee Related JP6558234B2 (en) 2015-12-09 2015-12-09 Destination estimation device

Country Status (1)

Country Link
JP (1) JP6558234B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6563451B2 (en) * 2017-08-25 2019-08-21 ヤフー株式会社 Movement support apparatus, movement support system, movement support method, and movement support program
JP6701275B2 (en) * 2018-07-20 2020-05-27 ヤフー株式会社 Information processing apparatus, information providing method and program
CN114061608A (en) * 2019-06-06 2022-02-18 阿波罗智联(北京)科技有限公司 Method, system and device for generating driving route
CN112050822B (en) * 2019-06-06 2022-08-12 阿波罗智联(北京)科技有限公司 Method, system and device for generating driving route
JP2021077296A (en) * 2019-11-13 2021-05-20 トヨタ自動車株式会社 Information providing apparatus
DE102022110157A1 (en) 2022-04-27 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Method for providing a navigation destination by a vehicle, computer-readable medium, system, and vehicle
WO2024023543A1 (en) * 2022-07-26 2024-02-01 日産自動車株式会社 Traffic system for dispatch vehicle, shared terminal control device, and shared terminal control method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289661A (en) * 2000-04-07 2001-10-19 Alpine Electronics Inc Navigator
JP4254375B2 (en) * 2003-06-26 2009-04-15 カシオ計算機株式会社 Destination guidance system and program
JP4547721B2 (en) * 2008-05-21 2010-09-22 株式会社デンソー Automotive information provision system
JP5286952B2 (en) * 2008-06-05 2013-09-11 日産自動車株式会社 Moving purpose estimation apparatus and moving purpose estimation method
JP2010237134A (en) * 2009-03-31 2010-10-21 Equos Research Co Ltd Destination providing system and navigation system

Also Published As

Publication number Publication date
JP2017107392A (en) 2017-06-15

Similar Documents

Publication Publication Date Title
JP6558234B2 (en) Destination estimation device
JP6838070B2 (en) Autonomous vehicle service
US11097690B2 (en) Identifying and authenticating autonomous vehicles and passengers
US10809721B2 (en) Autonomous driving system
US20160368456A1 (en) System and Method for Wirelessly Rostering a Vehicle
US20160055749A1 (en) Method and system for vehicle parking
CN109376311A (en) Suitable for the multiple matched system of driver-motroist, method and apparatus for multiplying model altogether
KR102270322B1 (en) Motor vehicle comprising driver identification device and driver identification signal transmitter
US20200175432A1 (en) Travel schedule determination device, autonomous vehicle, travel schedule determination method, and program
CN104050801A (en) Methods and systems for facilitating stops for vehicles en route to a common destination
CN104048670A (en) Methods And Systems For Associating Vehicles En Route To A Common Destination
US20140181989A1 (en) Information processing apparatus, communication terminal apparatus, and storage medium
US20180143033A1 (en) Method and system for lane-based vehicle navigation
EP2159778A1 (en) Method and system for automatic and direct arrangement of driver and person to be transported
JP2022519723A (en) Proximity warning system
CN111009115A (en) Lost article delivery support device, lost article delivery support system, lost article delivery support method, and storage medium
JP2020013326A (en) On-vehicle device, information processing device, information processing method, and program
US20200012996A1 (en) Information processing apparatus and information processing method
US20200145800A1 (en) Mobility service supporting device, mobility system, mobility service supporting method, and computer program for supporting mobility service
US11302304B2 (en) Method for operating a sound output device of a motor vehicle using a voice-analysis and control device
JP2021077296A (en) Information providing apparatus
US20210304117A1 (en) Management device, management method, and storage medium
US20200380630A1 (en) Information processing apparatus, information processing method, and program
JP7264837B2 (en) Information processing device, information processing method, and information processing system
JP6854018B2 (en) Programs for self-driving cars and self-driving cars

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190701

R151 Written notification of patent or utility model registration

Ref document number: 6558234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees