JP2017185954A - Automatic drive vehicle - Google Patents

Automatic drive vehicle Download PDF

Info

Publication number
JP2017185954A
JP2017185954A JP2016077560A JP2016077560A JP2017185954A JP 2017185954 A JP2017185954 A JP 2017185954A JP 2016077560 A JP2016077560 A JP 2016077560A JP 2016077560 A JP2016077560 A JP 2016077560A JP 2017185954 A JP2017185954 A JP 2017185954A
Authority
JP
Japan
Prior art keywords
baggage
user
vehicle
luggage
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016077560A
Other languages
Japanese (ja)
Inventor
上田 和彦
Kazuhiko Ueda
和彦 上田
宮田 正浩
Masahiro Miyata
正浩 宮田
佳子 佐々木
Yoshiko Sasaki
佳子 佐々木
敬 北川
Takashi Kitagawa
敬 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016077560A priority Critical patent/JP2017185954A/en
Publication of JP2017185954A publication Critical patent/JP2017185954A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To stop an automatic drive vehicle with an automatic delivery function at a position suitable to a user in accordance with luggage carried with the user.SOLUTION: An automatic drive vehicle (1) with an automatic delivery function includes: imaging parts (13,14) for imaging surroundings; a first storage part (31) for storing user image information and luggage image information; a second storage part (32) for storing the luggage correlated with a luggage storage spot information; and control parts (11, 12) for identifying the luggage carried with the user on the basis of the imaged image, and the stored user image information and luggage image information, and determining a target stop position for the user carrying the luggage on the basis of the luggage information related to the identified luggage and luggage storage spot information.SELECTED DRAWING: Figure 1

Description

本発明は、自動出庫機能を備える自動運転車両の技術分野に関する。   The present invention relates to a technical field of an autonomous driving vehicle having an automatic delivery function.

この種の車両として、携帯電話による遠隔操作で自動出庫させる技術が提案されている(特許文献1参照)。この技術によれば、車両とユーザとの位置関係に応じて、車両の停止位置を決定している。   As this type of vehicle, a technique for automatically leaving a vehicle by remote control using a mobile phone has been proposed (see Patent Document 1). According to this technique, the stop position of the vehicle is determined according to the positional relationship between the vehicle and the user.

特開2013−177128号公報JP 2013-177128 A

しかしながら、特許文献1に記載の技術によれば、ユーザが荷物を持っているか否かによっては、或いは、持っている荷物の種類によっては、自動出庫における停止位置が、ユーザにとって最適な位置になるとは限らないという技術的問題点がある。   However, according to the technique described in Patent Document 1, depending on whether or not the user has a baggage, or depending on the type of baggage that the user has, the stop position in automatic shipping is the optimal position for the user. There is a technical problem that is not limited.

本発明は、上記問題点に鑑みてなされたものであり、ユーザの利便性を向上させることができる自動出庫機能を備える自動運転車両を提供することを課題とする。   This invention is made | formed in view of the said problem, and makes it a subject to provide the automatic driving | running | working vehicle provided with the automatic leaving function which can improve a user's convenience.

本発明の自動運転車両は、上記課題を解決するために、自動出庫機能を備える自動運転車両であって、前記自動運転車両の周辺の少なくとも一部を撮像する撮像部と、前記自動運転車両のユーザに関するユーザ画像情報及び前記ユーザの荷物に関する荷物画像情報を予め記憶する第1記憶部と、前記荷物を識別する荷物情報と前記荷物の前記自動運転車両内における載置場所を示す荷物載置場所情報及び前記自動運転車両の目標停止位置を示す目標停止位置情報のうち少なくとも荷物載置場所情報とを相互に関連付けて記憶する第2記憶部と、前記撮像された画像、前記記憶されたユーザ画像情報及び前記記憶された荷物画像情報に基づいて、前記ユーザにより携行される荷物を特定し、該特定された荷物に係る前記荷物情報と前記記憶された荷物載置場所情報とに基づいて、前記荷物を携行する前記ユーザに対する前記目標停止位置を決定する制御部とを備える。   In order to solve the above-described problem, an automatic driving vehicle according to the present invention is an automatic driving vehicle having an automatic delivery function, and includes an imaging unit that images at least a part of the periphery of the automatic driving vehicle, A first storage unit that pre-stores user image information relating to a user and baggage image information relating to the user's luggage; luggage information identifying the luggage; and a luggage placement location indicating the placement location of the luggage within the autonomous driving vehicle A second storage unit that stores information and at least the luggage placement location information among the target stop position information indicating the target stop position of the autonomous driving vehicle, the captured image, and the stored user image Based on the information and the stored baggage image information, a baggage carried by the user is specified, and the baggage information related to the specified baggage and the stored Based on the load carrying location office information, and a control unit that determines the target stop position with respect to the user to carry the luggage.

本発明の自動運転車両によれば、自動出庫に際して、制御部は、各種の荷物及びこれを携行するユーザが撮像部によって撮像された画像と、第1記憶部に記憶されたユーザ画像情報及び荷物画像情報とに基づいて、ユーザにより携行される荷物を特定する。更に、制御部は、第2記憶部に記憶されており、この特定された荷物に係る荷物情報と、第2記憶部に記憶された荷物載置場所情報とに基づいて、荷物を携行するユーザに対する(即ち、特定された荷物を携行するユーザにとって、荷物を車内になるべく載置・収納しやすい)目標停止位置を決定する。具体的には、制御部は、特定された荷物に係る荷物情報に関連付けられて或いは対応して記憶されている荷物載置場所情報に従って、目標停止位置を決定する。或いは、制御部は、特定された荷物に係る荷物情報に関連付けられて或いは対応して記憶されている荷物載置場所情報の、過去における学習値に従って、目標停止位置を決定する。   According to the self-driving vehicle of the present invention, at the time of automatic delivery, the control unit includes various types of luggage and images captured by the imaging unit of the user carrying the baggage, user image information and luggage stored in the first storage unit. The baggage carried by the user is specified based on the image information. Further, the control unit is stored in the second storage unit, and the user who carries the baggage based on the specified package information and the package placement location information stored in the second storage unit The target stop position is determined with respect to (that is, it is easy for a user carrying the specified luggage to place and store the luggage in the vehicle as much as possible). Specifically, the control unit determines the target stop position according to the package placement location information stored in association with or corresponding to the package information related to the specified package. Alternatively, the control unit determines the target stop position according to a past learned value of the package placement location information stored in association with or corresponding to the package information related to the specified package.

このように本発明によれば、ユーザが携行している荷物に応じて、ユーザが該荷物を載置・収納しやすいように自動出庫機能における目標停止位置が決定されるので、ユーザにとっての利便性は向上される。   As described above, according to the present invention, the target stop position in the automatic delivery function is determined so that the user can easily place and store the baggage according to the baggage carried by the user. Is improved.

本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。   The effect | action and other gain of this invention are clarified from the form for implementing demonstrated below.

実施形態に係る自動運転車両の構成を示すブロック図である。It is a block diagram which shows the structure of the autonomous driving vehicle which concerns on embodiment. 実施形態に係る自動運転車両が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the automatic driving vehicle which concerns on embodiment performs. 実施形態における、手荷物の種類別に、学習値の有無、荷物収納場所及び車の寄せ方を示す表である。It is a table | surface which shows the presence or absence of a learning value, a luggage storage location, and how to approach a car according to the kind of baggage in embodiment. 図2のステップS1で行われる処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed by step S1 of FIG. 他の実施形態に係る自動運転車両が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the automatic driving vehicle which concerns on other embodiment performs.

本発明の自動運転車両に係る一の実施形態について、図1から図4を参照して説明する。   An embodiment according to an autonomous driving vehicle of the present invention will be described with reference to FIGS. 1 to 4.

先ず図1において、車両1は、本発明に係る「自動出庫機能を備えた自動運転車両」の一例を構成しており、例えば各種提案されている既存技術(例えば前出の特許文献1)を利用することにより基本的な自動出庫機能を備え、更に以下説明するように本実施形態に独自の構成を備え、独自の作用効果を奏するように構成されている。   First, in FIG. 1, a vehicle 1 constitutes an example of an “automatic driving vehicle having an automatic delivery function” according to the present invention. For example, various proposed existing technologies (for example, the above-mentioned Patent Document 1) are used. By using this, a basic automatic delivery function is provided. Further, as described below, the present embodiment has a unique configuration and is configured to exhibit unique operational effects.

即ち、車両1は、制御用PC11、認識用PC12、車外を撮像するカメラ13、車内を撮像するカメラ14、地図データベース15、ユーザ101が持つ電子キー20から発信される電波信号を受信可能な受信部16a〜16d、車速センサ17、例えばLidar(Light Detection and Ranging)等である物体検出センサ18、及びデータベース用PC30を備えて構成される。車両1は、駆動源としてエンジンのみを備える車両(所謂コンベンショナル車)であってもよいし、ハイブリッド車両であってもよいし、或いは、電気自動車、燃料電池自動車等であってもよい。   That is, the vehicle 1 receives a radio signal transmitted from the control PC 11, the recognition PC 12, the camera 13 that images the outside of the vehicle, the camera 14 that images the inside of the vehicle, the map database 15, and the electronic key 20 of the user 101. Parts 16a to 16d, a vehicle speed sensor 17, for example, an object detection sensor 18 such as Lidar (Light Detection and Ranging), and a database PC 30. The vehicle 1 may be a vehicle having only an engine as a drive source (a so-called conventional vehicle), a hybrid vehicle, an electric vehicle, a fuel cell vehicle, or the like.

カメラ13は、本発明に係る「撮像部」の一例を構成しており、例えば、手荷物102の判別を可能とするように(後述の図2のステップS2、S3等参照)、車両1外でユーザ101が手荷物102を携行する(即ち、手荷物102を持ったり、抑えていたり、足元に置いたり、転がしたり、引きずったり等をしている)様子を撮像するように構成されている。更に、カメラ13は、自動出庫に際し、ユーザ101のジャスチャによる車両1の呼び出しを可能ならしめるべく、ユーザ101のジェスチャーを撮像することも可能に構成されている(後述の図2のステップS1等参照)。   The camera 13 constitutes an example of the “imaging unit” according to the present invention. For example, the camera 13 is outside the vehicle 1 so that the baggage 102 can be discriminated (see steps S2, S3, etc. in FIG. 2 described later). The user 101 is configured to take an image of the baggage 102 being carried (that is, holding the baggage 102, holding it, placing it on the foot, rolling it, dragging it, etc.). Further, the camera 13 is configured to be able to capture the gesture of the user 101 so that the vehicle 1 can be called by the gesture of the user 101 during automatic delivery (see step S1 and the like in FIG. 2 described later). ).

カメラ14は、本発明に係る「撮像部」の他の一例を構成しており、例えば、車両1内で手荷物102が置かれる様子を撮像するように構成されている。更に、カメラ14は、予め又は自動出庫に相前後して、車内の空きスペース(例えば、助手席や後部座席が空かであること、トランクやルーフキャリアが空いていること等)、チャイルドシートの存在や位置形状、買い物フックの存在や位置形状、ペットシートの存在や位置形状等の車内の様子状況を撮像することも可能に構成されている(後述の図2のステップS4、S5等参照)。   The camera 14 constitutes another example of the “imaging unit” according to the present invention. For example, the camera 14 is configured to take an image of how the baggage 102 is placed in the vehicle 1. In addition, the camera 14 has a vacant space in the vehicle (for example, the passenger seat and the rear seat are vacant, the trunk and the roof carrier are vacant, etc.) It is also possible to image the state of the vehicle such as the position shape, the presence or position shape of the shopping hook, the presence or position shape of the pet seat (see steps S4 and S5 in FIG. 2 described later).

尚、カメラ13及び14各々は、1台のカメラに限らず、複数台のカメラから構成されていてよい。   Each of the cameras 13 and 14 is not limited to one camera and may be composed of a plurality of cameras.

データベース用PC30は、例えばハードディスクや不揮発性メモリ等の第1記憶部31及び第2記憶部32を備えて構成される。
第1記憶部31は、例えば、ユーザ101の外観或いは容姿を画像で示すユーザ画像情報と、例えば、手荷物102の外観を画像で示す荷物画像情報を予め記憶する。このような記憶は、過去における自動出庫動作の際にカメラ13又はカメラ14で撮像され記憶されるか又はユーザ101により事前に別途撮影され登録されることで実行される。
The database PC 30 includes a first storage unit 31 and a second storage unit 32 such as a hard disk and a nonvolatile memory.
For example, the first storage unit 31 stores in advance user image information indicating the appearance or appearance of the user 101 as an image and, for example, baggage image information indicating the appearance of the baggage 102 as an image. Such storage is performed by being captured and stored by the camera 13 or the camera 14 in the past automatic delivery operation, or separately captured and registered in advance by the user 101.

第2記憶部32は、手荷物102を識別する荷物情報、手荷物102の車両1内における載置場所を示す荷物載置場所情報及び車両1の目標停止位置を示す目標停止位置情報を、相互に関連付けて記憶する。   The second storage unit 32 correlates the baggage information for identifying the baggage 102, the baggage placement location information indicating the placement location of the baggage 102 in the vehicle 1, and the target stop position information indicating the target stop position of the vehicle 1 with each other. Remember.

第2記憶部32に記憶される「荷物情報」は、手荷物102の種別或いは属性を識別してもよい。即ち、荷物情報は、同種のもの或いは属性が同じもの(例えばサイズが大きいもの或いは小さいものなど)を、同種荷物或いは同属荷物として、一つの荷物情報として扱われてもよい。又は、荷物情報は、個々の荷物そのものを相互から識別してもよい(即ち、同種や同属の荷物であっても、例えば所有者が異なるなど別物である限り個別の荷物として、個別の荷物情報として扱われてもよい)。   The “package information” stored in the second storage unit 32 may identify the type or attribute of the baggage 102. That is, the package information may be treated as one package information, with the same type or the same attribute (for example, a large size or a small size) as the same type or belonging. Alternatively, the package information may identify individual packages from each other (that is, even if the packages are of the same type or belonging to each other, for example, as long as they are different items such as different owners, individual package information May be treated as).

荷物情報は、典型的には、手荷物の種類、手荷物のサイズを示す情報を含む。荷物情報はその他、ユーザ101により持たれる状況を示す情報、特にユーザ101により重そうに持たれるか又は軽そうに持たれるか、制御用PC11が載置位置を決定する際に基づくアルゴリズム上或いはデータ上では(後述の図2のステップS4、S5参照)軽い筈の手荷物102が実際にはユーザ101により地面に置かれているか否か等を示す情報を含んでもよい。荷物情報は、次回に同じ手荷物102が同じユーザ101により車両1内に載置・収容される場合における、該手荷物102が、どの位置に載置されるのがユーザ101の嗜好に合うかを確率で示す情報、或いは、該手荷物102が載置されるためには、車両1がどの位置に車寄せされるのがユーザ101の嗜好に合うかを確率で示す情報を含んでもよい。   The baggage information typically includes information indicating the type of baggage and the size of the baggage. The baggage information is other information indicating the situation held by the user 101, in particular, whether it is held heavier or lighter by the user 101, or an algorithm or data based on when the control PC 11 determines the placement position Above (see steps S4 and S5 in FIG. 2 described later), information indicating whether or not the light baggage 102 is actually placed on the ground by the user 101 may be included. The baggage information indicates the probability that the position of the baggage 102 that fits the preference of the user 101 when the same baggage 102 is placed and accommodated in the vehicle 1 by the same user 101 next time. In order for the baggage 102 to be placed, information indicating the position at which the vehicle 1 is brought to the user's preference may be included.

更に、荷物情報は、手荷物が生物(即ち“なまもの”又は“せいぶつ”)であるか否かを示す情報を含んでもよい。荷物情報は、最終的に或いは実際にユーザ101によりその手荷物102が載置された場所を示す情報(即ち、助手席、右後部シート、左後部シート、トランク、ルーフキャリアのいずれであるかを示す情報)を含んでもよい。加えて、荷物情報は、いつもユーザ101により助手席に置かれるような比較的軽い手荷物であっても、ユーザ101により重そうに持たれる場合や地面に置かれる場合、特定のユーザ101によりトランクに載せられる傾向が強い場合などに、ユーザ101により重そうに持たれるか否かの確率データを、荷物が有する属性の一つとして、含んでもよい。   Further, the baggage information may include information indicating whether or not the baggage is a living thing (ie, “name” or “samurai”). The baggage information is information indicating a place where the baggage 102 is finally or actually placed by the user 101 (that is, whether it is a passenger seat, a right rear seat, a left rear seat, a trunk, or a roof carrier) Information). In addition, even if the baggage information is a relatively light baggage that is always placed in the passenger seat by the user 101, if the baggage information is held heavy by the user 101 or placed on the ground, the baggage information may be placed on the trunk by the specific user 101. If the tendency to be placed is strong, probability data as to whether or not the user 101 is more likely to be held may be included as one of the attributes of the package.

認識用PC12は、本発明に係る「制御部」の一例を部分的に構成しており、自動出庫に際して、手荷物102及びこれを携行するユーザ101がカメラ13又はカメラ14によって撮像された画像と、第1記憶部31に記憶されたユーザ画像情報及び荷物画像情報とに基づいて、手荷物102を特定するように構成されている。   The recognition PC 12 partially constitutes an example of a “control unit” according to the present invention, and an image of the baggage 102 and the user 101 carrying the baggage 102 taken by the camera 13 or the camera 14 at the time of automatic delivery, The baggage 102 is specified based on the user image information and the baggage image information stored in the first storage unit 31.

制御用PC11は、本発明に係る「制御部」の一例を部分的に構成しており、車両1のユーザ101からの指示により、所定の出庫プログラムに基づいた車両1の出庫を行う(後述の図2等参照)。具体的には、制御用PC11は、認識用PC12により特定された手荷物102に係る荷物情報と、第2記憶部32に記憶された荷物載置場所情報とに基づいて、手荷物102を携行するユーザ101に対する目標停止位置(即ち、特定された手荷物102を携行するユーザ101にとって、なるべく収納或いは載置しやすい車両1の停止位置)を決定するように構成されている。   The control PC 11 partially configures an example of the “control unit” according to the present invention, and performs the vehicle 1 based on a predetermined delivery program according to an instruction from the user 101 of the vehicle 1 (described later). (See FIG. 2 etc.) Specifically, the control PC 11 is a user who carries the baggage 102 based on the baggage information related to the baggage 102 specified by the recognition PC 12 and the baggage placement location information stored in the second storage unit 32. The target stop position with respect to 101 (that is, the stop position of the vehicle 1 that can be stored or placed as easily as possible for the user 101 carrying the specified baggage 102) is determined.

より具体的には、制御用PC11は、第2記憶部32内において、特定された手荷物102に係る荷物情報に関連付けられて或いは対応して記憶されている荷物載置場所情報に従って、目標停止位置を決定する。或いは、制御用PC11は、第2記憶部32内において、特定された手荷物102に係る荷物情報に関連付けられて或いは対応して記憶されている荷物載置場所情報の、過去における学習値に従って、目標停止位置を決定する。   More specifically, the control PC 11 determines the target stop position according to the baggage placement location information stored in association with or corresponding to the baggage information related to the specified baggage 102 in the second storage unit 32. To decide. Alternatively, the control PC 11 determines the target according to the learned value in the past of the baggage placement location information stored in association with or corresponding to the baggage information related to the specified baggage 102 in the second storage unit 32. Determine the stop position.

この際、荷物情報が、ユーザ101に持たれる状況を示す情報、具体的には、ユーザ101により重そうに持たれるか又は軽そうに持たれるかを示す情報、特に、制御用PC11が載置位置を決定する際に基づくアルゴリズム上或いはデータ上では軽い筈の手荷物102が実際にはユーザ101により地面に置かれていることを示す情報を含んでいる場合、制御用PC11は、所定アルゴリズムに従って、これらの情報に基づき、過去に一の載置場所に載置された手荷物102に対してでも、過去とは異なる他の載置場所を特定するように構成されてもよい。或いは、今回の自動出庫に際し、過去に同じユーザ101により同じ手荷物102が車両1内に収容された実績がある場合であっても、荷物情報に含まれる、該手荷物102がどの位置に載置されるのがユーザ101の嗜好に合うかを確率で示す情報、或いは、該手荷物102が収容・載置される際に、車両1がどの位置に車寄せされるのがユーザ101の嗜好に合うかを確率で示す情報に基づき、制御用PC11は、同一の手荷物102に対して、過去とは同じ又は異なる載置場所を特定するように構成されてもよい。   At this time, the baggage information is information indicating a situation held by the user 101, specifically, information indicating whether the user 101 is held heavy or lightly by the user 101, in particular, the control PC 11 is placed. When the algorithm based on determining the position or the data includes information indicating that the light baggage 102 is actually placed on the ground by the user 101, the control PC 11 follows the predetermined algorithm. Based on these pieces of information, the baggage 102 placed in one place in the past may be configured to specify another place different from the past. Alternatively, even when there is a track record in which the same baggage 102 has been accommodated in the vehicle 1 by the same user 101 in the past during this automatic shipping, the baggage 102 included in the baggage information is placed at any position. Information indicating with probability that the user's 101 suits the user's preference, or the position where the vehicle 1 is brought to the user's 101 when the baggage 102 is accommodated / placed. Based on the information indicated by the probability, the control PC 11 may be configured to specify the same or different placement location for the same baggage 102 from the past.

更に、荷物情報が、手荷物102が最終的に或いは実際にユーザ101により載置された場所を示す情報(即ち、助手席、右後部シート、左後部シート、トランク、ルーフキャリアのいずれであるかを示す情報)を含んでいれば、制御用PC11は、これらの情報に基づき、過去とは同じ又は異なる載置場所を特定するように構成されてもよい。加えて、いつもユーザ101により助手席に置かれるような比較的軽い手荷物102であっても、ユーザ101により重そうに持たれている場合や地面に置かれている場合、特定のユーザ101によりトランクに載せられる傾向が強い場合などに、ユーザ101により重そうに持たれるか否か等を示す、荷物情報に含まれる確率データに基づいて、制御用PC11は、過去とは同じ又は異なる載置場所を特定するように構成されてもよい。   Further, the baggage information indicates whether the baggage 102 is finally or actually placed by the user 101 (that is, whether it is a passenger seat, a right rear seat, a left rear seat, a trunk, or a roof carrier). The control PC 11 may be configured to specify the same or different placement location from the past based on the information. In addition, even a relatively light baggage 102 that is always placed in the passenger seat by the user 101 is trunked by a specific user 101 if it is held heavy by the user 101 or placed on the ground. PC11 for control is the same as or different from the past, based on the probability data included in the package information indicating whether or not the user 101 is likely to carry the item more heavily, for example, May be configured to identify.

他方で、制御用PC11は、認識用PC12によって手荷物102を特定できない場合には、所定アルゴリズムに従って、手荷物102のサイズ、種類等に基づいて、手荷物102に対して新たに最適な荷物載置場所を判断し、これに基づいて手荷物102を携行するユーザ101に対して、最適な目標停止位置を決定するように構成されてもよい。この際、制御用PC11は、該決定された目標停止位置を示す目標停止位置情報を、新たに記憶した手荷物102に係る荷物情報に関連付ける形で、第2記憶部32に記憶させてもよい。或いは、制御用PC11は、これに加えて又は代えて、判断の結果たる荷物載置場所情報を、新たに記憶した手荷物102に係る荷物情報に関連付ける形で、第2記憶部32に記憶させてもよい。更に、制御用PC11は、実際にユーザが載置した荷物載置場所を示す荷物載置場所情報を、新たに記憶した手荷物102に係る荷物情報に関連付ける形で、第2記憶部32に記憶させてもよい。   On the other hand, when the control PC 11 cannot identify the baggage 102 by the recognition PC 12, a new optimal baggage placement location for the baggage 102 is determined based on the size and type of the baggage 102 according to a predetermined algorithm. The optimum target stop position may be determined for the user 101 carrying the baggage 102 based on the determination. At this time, the control PC 11 may store the target stop position information indicating the determined target stop position in the second storage unit 32 so as to be associated with the newly stored baggage information related to the baggage 102. Alternatively, in addition to or instead of this, the control PC 11 causes the second storage unit 32 to store the baggage placement location information as a result of the determination in association with the newly stored baggage information related to the baggage 102. Also good. Further, the control PC 11 causes the second storage unit 32 to store the baggage placement location information indicating the baggage placement location actually placed by the user in the form associated with the newly stored baggage information related to the baggage 102. May be.

具体的には、今までに車両1に載せたことがない手荷物102の場合、過去の学習値としての荷物情報或いは荷物載置場所情報が使えないので、自動出庫に際してカメラ13で今回撮像され認識用PC12で認識された新たな手荷物102についての、認識用PC12で認識されたサイズ、種類に基づき、制御用PC11は、手荷物102をユーザ101が車両1の最適な載置場所へ載せやすい停止位置を特定し、その停止位置へ車両1を車寄せするように構成してもよい。即ち、制御用PC11は、場合に応じて選択的に、既存の自動出庫機能における目標停止位置の決定方法(例えば前出の特許文献1参照)をそのまま実施するように構成してもよい。   Specifically, in the case of the baggage 102 that has not been put on the vehicle 1 until now, since the baggage information or the baggage placement location information as the past learning value cannot be used, the camera 13 captures and recognizes this time at the time of automatic delivery. Based on the size and type recognized by the recognition PC 12 for the new baggage 102 recognized by the PC 12, the control PC 11 can easily stop the baggage 102 from being placed on the optimal placement location of the vehicle 1 by the user 101. May be specified, and the vehicle 1 may be brought to the stop position. That is, the control PC 11 may be configured to perform the target stop position determination method in the existing automatic delivery function (for example, see the above-mentioned Patent Document 1) as it is, selectively according to circumstances.

なお、本実施形態に係る「停止位置」或いは「目標停止位置」は、車両1のユーザ101に対する相対的な位置である。例えばユーザ101を、車両1のトランク前とする位置、左後部ドアの前とする位置、運転席ドアの前とする位置などである。但し、このような相対的な位置に加えて又は代えて、車両1の道路上における(即ち道路に対する)実際の位置或いは絶対的な位置であってもよい。例えば、ユーザ101の自宅車庫付近の道路上における車両1の位置であってもよい。目標停止位置情報は、このような相対的な位置や絶対的な位置を示すものとして、第2記憶部32に記憶される。   The “stop position” or “target stop position” according to the present embodiment is a relative position of the vehicle 1 with respect to the user 101. For example, the position where the user 101 is in front of the trunk of the vehicle 1, the position in front of the left rear door, the position in front of the driver's seat door, and the like. However, in addition to or instead of such a relative position, an actual position or an absolute position on the road of the vehicle 1 (that is, with respect to the road) may be used. For example, the position of the vehicle 1 on the road near the home garage of the user 101 may be used. The target stop position information is stored in the second storage unit 32 as indicating such a relative position or an absolute position.

次に図1に加えて、図2及び図4のフローチャート並びに図3の表を参照しながら、以上のように構成された車両1で実行される、一連の自動出庫処理を、更なる詳細構成と共に説明する。   Next, in addition to FIG. 1, referring to the flowcharts of FIG. 2 and FIG. 4 and the table of FIG. 3, a series of automatic shipping processes executed by the vehicle 1 configured as described above will be further detailed. It explains together.

図2において先ず、ドライバー、即ち図1におけるユーザ101が、車両1を呼ぶと(ステップS1)、ドライバーが手荷物102を持っているか否かが、カメラ13で撮像された画像を参照することで認識用OPC12により判定される(ステップS2)。   In FIG. 2, first, when the driver, that is, the user 101 in FIG. 1 calls the vehicle 1 (step S <b> 1), it is recognized by referring to the image captured by the camera 13 whether or not the driver has the baggage 102. This is determined by the OPC 12 for use (step S2).

ステップS1での呼び出しは、ユーザ101が電子キー20を操作することで行ってもよいし、後に例示するようにユーザ101が自らのジェスチャで呼び出すようにしたり、ユーザ101が車両1に近付くことで自動的に行われてもよいし、(後述の図4参照)。   The calling in step S1 may be performed by the user 101 operating the electronic key 20, or the user 101 may call with his / her gesture as illustrated later, or the user 101 approaches the vehicle 1 It may be performed automatically (see FIG. 4 described later).

ステップS2の判定において、手荷物102を持っていると判定されると(ステップS2:Yes)、今までドライバーが車両1に載置したことがある手荷物102であるか否かが更に判定される(ステップS3)。言い換えれば、過去におけるその手荷物102に関する荷物載置場所情報の学習値が、第2記憶部32内に存在するか否かが判定される。この際、同種或いは同一の手荷物102であっても、ユーザ101の嗜好によって荷物載置場所が変化し得る。このため、第2記憶部32から、その手荷物102に対応する荷物載置場所情報、即ち当該手荷物102が過去に車両1に収納・載置された際における載置位置を示す荷物載置場所情報の学習値が読み出される。   If it is determined in step S2 that the baggage 102 is held (step S2: Yes), it is further determined whether or not the baggage 102 has been placed on the vehicle 1 until now by the driver (step S2: Yes). Step S3). In other words, it is determined whether or not the learned value of the baggage placement location information regarding the baggage 102 in the past exists in the second storage unit 32. At this time, even if it is the same type or the same baggage 102, the baggage placement location may change depending on the preference of the user 101. Therefore, the luggage storage location information corresponding to the baggage 102 from the second storage unit 32, that is, the luggage storage location information indicating the placement position when the baggage 102 has been stored and placed in the vehicle 1 in the past. The learned value is read out.

ここで車両1に載置したことがある手荷物102であると判定されると(ステップS3:Yes)、言い換えれば該手荷物102に関連する荷物載置場所情報の学習値が第2記憶部32内に存在する場合には、ドライバーがその好み等により今までに載置・収納した場所に、手荷物102を載置・収納し易いような車両1の停止位置を目標停止位置として決定し、その停止位置へと車寄せを実行する(ステップS4)。   If it is determined that the baggage 102 has been placed on the vehicle 1 (step S3: Yes), in other words, the learned value of the baggage placement location information related to the baggage 102 is stored in the second storage unit 32. If the vehicle is present in the vehicle, the stop position of the vehicle 1 that makes it easy to place and store the baggage 102 in the place where the driver has previously placed and stored is determined as the target stop position, and the stop Carriage to the position is executed (step S4).

具体的には例えば、ステップS4の車寄せ処理では、例えば手荷物102が「ゴルフバック」である場合、車両1のトランクでも後部座席でも物理的には載置可能であるが、ユーザ101が、いつもゴルフバックを後部座席に乗せていることが、荷物載置場所情報の学習値により示されていれば、ユーザ101がゴルフバックを後部座席に載せやすい停止位置への車寄せが実行される。   Specifically, for example, when the baggage 102 is “golf back” in step S4, for example, when the baggage 102 is “golf back”, it can be physically placed on the trunk or the rear seat of the vehicle 1, but the user 101 always plays golf. If it is indicated by the learned value of the baggage placement location information that the back is placed on the back seat, the vehicle 101 is moved to a stop position where the user 101 can easily place the golf back on the back seat.

或いは例えば、ステップS4の車寄せ処理では、例えば手荷物102が「買い物袋」である場合、車両1の助手席でもトランクでも後部座席でも物理的には載置可能であるが、ユーザ101が、いつも買い物袋を後部座席に乗せていることが、荷物載置場所情報の学習値により示されていれば、ここでは、ユーザ101が買い物袋を後部座席に載せやすい停止位置への車寄せが実行される。   Or, for example, in the vehicle shifting process of step S4, for example, when the baggage 102 is a “shopping bag”, it can be physically placed in the passenger seat, trunk, or rear seat of the vehicle 1, but the user 101 always performs shopping. If it is indicated by the learned value of the baggage placement location information that the bag is placed on the rear seat, the vehicle 101 is moved to a stop position where the user 101 can easily place the shopping bag on the rear seat.

或いは例えば、ステップS5の車寄せ処理では、例えば手荷物102が「買い物袋」である場合、ユーザ101が、いつも買い物袋を助手席或いは後部座席の脇に備えられた買い物フックに引っ掛けていることが、荷物載置場所情報の学習値により示されていれば、ここでは、ユーザ101が買い物袋を買い物フックに掛けやすい停止位置への車寄せが実行される。   Or, for example, in the vehicle shifting process in step S5, for example, when the baggage 102 is a “shopping bag”, the user 101 always hooks the shopping bag on the shopping hook provided on the side of the passenger seat or the rear seat. If it is indicated by the learned value of the luggage placement location information, here, the vehicle 101 is moved to a stop position where the user 101 can easily put the shopping bag on the shopping hook.

他方、ステップS3の判定で、車両1に載置したことがある手荷物ではない(即ち、初めて載置する手荷物である)と判定されると(ステップS3:No)、言い換えれば該手荷物に関連する荷物載置場所情報の学習値が第2記憶部32内に存在しない場合には、カメラ13で撮像された画像に基づいて、認識用PC12にて認識される、その手荷物の種類や属性、サイズなどから、その手荷物の最適な荷物搭載位置、即ち荷物載置・収納場所を判断し、該判断された荷物搭載位置に手荷物を載置し易いような、車両1の停止位置を、目標停止位置として決定し、その位置へと車両1を寄せる(ステップS5)。   On the other hand, if it is determined in step S3 that the baggage has not been placed on the vehicle 1 (that is, the baggage that is placed for the first time) (step S3: No), in other words, it is related to the baggage. If the learned value of the luggage storage location information does not exist in the second storage unit 32, the type, attribute, and size of the baggage recognized by the recognition PC 12 based on the image captured by the camera 13 From the above, the optimal load mounting position of the baggage, that is, the baggage placement / storage location is determined, and the stop position of the vehicle 1 that makes it easy to place the baggage at the determined baggage load position is determined as the target stop position. And the vehicle 1 is brought to that position (step S5).

具体的には例えば、ステップS5の車寄せ処理では、例えば手荷物102が「赤ちゃん」である場合、手荷物102から載置場所を特定するための所定アルゴリズムに従って、チャイルドシートが最適な荷物載置場所として判断され、ユーザ101が赤ちゃんをチャイルドシートに載せやすい停止位置への車寄せが実行される。   Specifically, for example, when the baggage 102 is “baby”, the child seat is determined as the optimum baggage placement location according to a predetermined algorithm for identifying the placement location from the baggage 102, for example, when the baggage 102 is “baby”. The vehicle 101 is moved to a stop position where the user 101 can easily put the baby on the child seat.

或いは例えば、ステップS5の車寄せ処理では、例えば手荷物102が「ペット」である場合、手荷物から載置場所を特定するための所定アルゴリズムに従って、ペットシートカバーが搭載された場所が最適な荷物載置場所として判断され、ユーザ101がペットをペットシートカバー搭載場所に載せやすい停止位置への車寄せが実行される。   Alternatively, for example, in the vehicle shifting process of step S5, when the baggage 102 is “pet”, for example, according to a predetermined algorithm for specifying the placement location from the baggage, the place where the pet seat cover is mounted is the optimal placement location. And the vehicle 101 is moved to a stop position where the user 101 can easily put the pet on the pet seat cover mounting place.

或いは例えば、ステップS5の車寄せ処理では、例えば手荷物102が「買い物袋」である場合、季節が「夏」であれば、四季の別又は夏季冬季の別における取扱属性を含む荷物情報を用いて載置場所を特定する所定アルゴリズムに従って、生物が腐り難い低温な場所である、直射日光の当たらないリアシートが最適な荷物載置場所として判断され、ユーザ101が買い物袋をリアシートに載せやすい停止位置への車寄せが実行される。   Or, for example, in the vehicle shifting process in step S5, for example, when the baggage 102 is a “shopping bag” and the season is “summer”, the baggage information including handling attributes in the four seasons or in the summer / winter season is used. According to a predetermined algorithm for specifying the placement location, the rear seat that is not exposed to direct sunlight, which is a low-temperature place where organisms are difficult to rot, is determined as the optimum luggage placement location, and the user 101 is placed in a stop position where the user can easily place the shopping bag on the rear seat. Carriage is executed.

或いは例えば、ステップS5の車寄せ処理では、例えば手荷物102が買い物袋である場合、季節が「冬」であれば、四季の別又は夏季冬季の別における取扱属性を含む荷物情報を用いて載置場所を特定する所定アルゴリズムに従って、生物が腐り難い相対的に低温な場所である、トランクが最適な荷物載置場所として判断され、ユーザ101が買い物袋をトランクに載せやすい停止位置への車寄せが実行される。   Or, for example, in the vehicle shifting process in step S5, for example, when the baggage 102 is a shopping bag, and the season is “winter”, the placement location using the baggage information including the handling attribute in the four seasons or in the summer / winter season In accordance with a predetermined algorithm for identifying the vehicle, the trunk is determined as an optimal load placement place, which is a relatively low temperature place where organisms are not easily rotted, and the vehicle 101 is moved to a stop position where the user 101 can easily place the shopping bag on the trunk. The

或いは例えば、ステップS5の車寄せ処理では、例えば手荷物102が「スーツケース、段ボールケース」等の大きなサイズのものであり、物理的にトランクにしか載置不可能である場合、単純に、トランクが最適な荷物載置場所として判断され、ユーザ101が該大きなサイズの手荷物102をトランクに載せやすい停止位置への車寄せが実行される。   Or, for example, in the vehicle shifting process of step S5, if the baggage 102 is of a large size such as a “suitcase, cardboard case”, etc. and can only be physically placed only on the trunk, the trunk is simply the best It is determined that the baggage is placed on the baggage, and the vehicle 101 is moved to a stop position where the user 101 can easily place the large baggage 102 on the trunk.

他方、ステップS2の判定で、手荷物102を持っていると判定されないと、即ち手荷物102を持っていないと判定されると(ステップS2:No)、単純に、ドライバーが運転席に乗車しやすい場所への車寄せが実行される(ステップS6)。   On the other hand, if it is determined in step S2 that the baggage 102 is not held, that is, if it is determined that the baggage 102 is not held (step S2: No), a place where the driver can easily get on the driver's seat The vehicle is moved to (step S6).

ここで図3を参照して、上述したステップS4及びS5の処理において、手荷物102の種類別に、学習値の有無及び荷物収納場所(即ち、荷物載置場所)に対し、どのように車両1の車寄せを実行するかについて説明を加える。図3では、左端コラムに「手荷物種類」として、その上段にユーザが「ゴルフバッグ」を携行している写真、その中段にユーザが比較的大きなサイズの「スーツケース」を携行している風景写真、その下段、にユーザが比較的小さなサイズの「ブリーフケース或いはアタッシュケース)を携行している風景写真が示されている。これらの写真は夫々、自動出庫に際してカメラ13により撮像される写真の一例でもある。   Referring to FIG. 3, in the above-described processing of steps S4 and S5, how the vehicle 1 is determined with respect to the presence / absence of the learning value and the luggage storage location (that is, the luggage storage location) for each type of baggage 102. An explanation will be given as to whether or not to carry out the carriage. In FIG. 3, the “left-hand column” has a “baggage type”, a photograph in which the user carries a “golf bag” in the upper row, and a landscape photograph in which the user carries a relatively large “suitcase” in the middle row. In the lower part of the figure, landscape photographs in which the user carries a relatively small “briefcase or attache case” are shown. These photographs are also examples of photographs taken by the camera 13 at the time of automatic delivery. is there.

図3において表の上段にて、ユーザが手荷物として「ゴルフバック」を携行している場合であって、この例では、学習値が「有」り、即ち、過去に同一ユーザにより手荷物として車両に載置・収納された経験があり且つ載置場所或いは荷物収納場所が「後部座席」であった場合における具体例の一つを示している。この場合、第2記憶部32には、ユーザ101がいつもゴルフバックを後部座席に乗せている旨の、荷物情報及び荷物載置場所情報の過去における学習値がある。従って、車寄せの仕方としては、左後ろドアがドライバー(即ちユーザ)の前に来るように車を寄せるようにする。   In the upper part of the table in FIG. 3, the user carries “golf back” as baggage, and in this example, the learning value is “Yes”, that is, in the past, the same user has the baggage as baggage. One of the specific examples in the case where there is experience of placement and storage and the placement place or the luggage storage place is “rear seat” is shown. In this case, the second storage unit 32 has learned values in the past of the baggage information and the baggage placement location information that the user 101 always puts the golf bag on the rear seat. Therefore, the vehicle is moved in such a way that the left rear door comes in front of the driver (that is, the user).

図3において表の中段にて、ユーザが手荷物として「スーツケース」を携行している場合、この例では、学習値が「無」しであるが、スーツケースのサイズからして、助手席や後部座席への荷物の搭載は実践上不可能である。従って、車寄せの仕方としては、トランクがドライバー(即ちユーザ)の前に来るように車を寄せるようにする。   In the middle of the table in FIG. 3, when the user carries a “suitcase” as baggage, in this example, the learning value is “none”, but from the size of the suitcase, It is practically impossible to load luggage in the rear seat. Therefore, as a method of approaching the vehicle, the vehicle is brought so that the trunk comes in front of the driver (that is, the user).

図3において表の下段にて、ユーザが手荷物として「アタッシュケース」を携行している場合、この例では、学習値は「無」しであるが、このような小さい手荷物であれば、手荷物を優先した車寄せを行わなくてもよい或いは行わない方が良いと判断される。従って、車寄せの仕方としては、手荷物が全くないのと同様に、ドライバー(即ちユーザ)が運転席に乗車し易いように車を寄せるようにする。   In the lower part of the table in FIG. 3, when the user carries “Attach case” as baggage, in this example, the learning value is “None”. It is determined that it is not necessary or necessary not to perform the vehicle approach. Therefore, as a method of approaching the vehicle, the driver (that is, the user) approaches the driver's seat so that the driver can easily get in the same manner as when there is no baggage.

ここで図4のフローチャートを参照して、図2における車両1を呼ぶ処理(ステップS1)の中で実行される、車両1の電源投入処理の一例について説明する。この処理は、車両1が駐車スペースに駐車しているときに、制御用PC11が実行する処理である。初期状態として、制御用PC11及び受信部16a〜16dには、車両1の駐車時(即ち、イグニッションオフ時)にも微小電力が、不図示のバッテリから供給されているものとする。   Here, an example of the power-on process of the vehicle 1 executed in the process (step S1) for calling the vehicle 1 in FIG. 2 will be described with reference to the flowchart of FIG. This process is a process executed by the control PC 11 when the vehicle 1 is parked in the parking space. As an initial state, it is assumed that minute electric power is supplied to the control PC 11 and the receiving units 16a to 16d from a battery (not shown) even when the vehicle 1 is parked (that is, when the ignition is off).

図4において、制御用PC11は、車両1のユーザ101(ここでは、電子キー20を所持している人)の接近を検出する(ステップS101)。具体的には、制御用PC11は、電子キー20から発信される電波信号の、受信部16a〜16dの少なくとも一つにおける受信強度に基づいて、車両1とユーザ101との間の距離を推定する。制御用PC11は、該推定された距離が所定距離以内である場合に、ユーザ101の接近が検出されたと判定する。   In FIG. 4, the control PC 11 detects the approach of the user 101 of the vehicle 1 (here, the person holding the electronic key 20) (step S101). Specifically, the control PC 11 estimates the distance between the vehicle 1 and the user 101 based on the reception intensity of the radio wave signal transmitted from the electronic key 20 in at least one of the reception units 16a to 16d. . The control PC 11 determines that the approach of the user 101 has been detected when the estimated distance is within a predetermined distance.

ステップS101の処理において、ユーザ101の接近が検出されない場合(ステップS101:No)、制御用PC11は、一旦処理を終了し、所定時間後に再びステップS101の処理を実行する。   If the approach of the user 101 is not detected in the process of step S101 (step S101: No), the control PC 11 once ends the process, and executes the process of step S101 again after a predetermined time.

他方、ステップS101の処理において、ユーザ101の接近が検出された場合(ステップS101:Yes)、制御用PC11は、電子キー20から発信される電波信号の受信強度の時間変化に基づいて、ユーザ101の移動速度を求め、該求められた移動速度が一定速度以上であるか否かを判定する(ステップS102)。   On the other hand, when the approach of the user 101 is detected in the process of step S101 (step S101: Yes), the control PC 11 1 determines the user 101 based on the temporal change in the reception intensity of the radio signal transmitted from the electronic key 20. Is determined, and it is determined whether or not the determined moving speed is equal to or higher than a certain speed (step S102).

ステップS102の判定の結果、求められた移動速度が一定速度以上であると判定された場合(ステップS102:Yes)、制御用PC11は、一旦処理を終了し、所定時間後に再びステップS101の処理を実行する。この場合、ユーザ101が車両1の周囲を通り過ぎる可能性が高いからである。   As a result of the determination in step S102, when it is determined that the determined moving speed is equal to or higher than a certain speed (step S102: Yes), the control PC 11 once ends the process, and after a predetermined time, performs the process in step S101 again. Run. This is because the user 101 is likely to pass around the vehicle 1.

他方、ステップS102の判定の結果、求められた移動速度が一定速度未満であると判定された場合(ステップS102:No)、制御用PC11は、車両1の電源(即ち、主電源)を投入する(ステップS103)。このステップS103の処理の結果、認識用PC12、カメラ13及び14等に電力が供給される。   On the other hand, as a result of the determination in step S102, when it is determined that the obtained moving speed is less than the constant speed (step S102: No), the control PC 11 turns on the power of the vehicle 1 (that is, the main power). (Step S103). As a result of the processing in step S103, power is supplied to the recognition PC 12, the cameras 13 and 14, and the like.

ここで、「電源を投入」とは、所謂コンベンショナル車であれば、主要な電装品が立ち上がり、エンジンを始動させることができる状態を意味し、ハイブリッド車や電気自動車であれば、走行可能な状態(所謂レディ状態)を意味する。   Here, “turning on the power” means a state in which main electrical components can be started and the engine can be started in a so-called conventional vehicle, and in a hybrid vehicle or an electric vehicle, the vehicle can be driven. (So-called ready state).

図4に示したように車両1の主電源の投入が行われると、カメラ13及び14、認識用PC12、データベース用PC30等が駆動状態となる。すると、ユーザ101は、例えばキー20或いは不図示の携帯端末等を使った既存の遠隔操作(例えば前出の特許文献1参照)により、自動出庫の指示(即ち、目標停止位置まで車両1を自動出庫位置させる旨の指示)を、車両1に対して行うことが可能となる。   As shown in FIG. 4, when the main power supply of the vehicle 1 is turned on, the cameras 13 and 14, the recognition PC 12, the database PC 30 and the like are driven. Then, the user 101 automatically moves the vehicle 1 to the target stop position (ie, automatically to the target stop position) by an existing remote operation using the key 20 or a portable terminal (not shown) (see, for example, the above-mentioned Patent Document 1). It is possible to instruct the vehicle 1 to make an exit position).

或いは、ユーザ101は、例えばジェスチャー等を使った遠隔操作により、自動出庫の指示を、車両1に対して行うことが可能となる。例えば、車両1外のユーザ101のジェスチャー(典型的には、自動出庫のコマンドとして予め規約された腕や手の動作など)をカメラ13で撮影し、これが認識用PC12にて認識された場合に、所定範囲内(例えば数メートル〜数十メートル)を自動的に移動可能に構成されてもよい。このようにして車両1に指示を出すことで、何れの場合にも、車両1を、手荷物102に応じた最適な目標停止位置まで自動で移動させる処理(即ち図2のステップS2以降の処理)を実行可能となる。   Alternatively, the user 101 can give an instruction for automatic delivery to the vehicle 1 by remote operation using a gesture or the like, for example. For example, when a gesture of the user 101 outside the vehicle 1 (typically, an arm or hand movement preliminarily defined as an automatic leaving command) is photographed by the camera 13 and recognized by the recognition PC 12. , A predetermined range (for example, several meters to several tens of meters) may be automatically movable. By issuing an instruction to the vehicle 1 in this way, in any case, the process of automatically moving the vehicle 1 to the optimum target stop position corresponding to the baggage 102 (that is, the process after step S2 in FIG. 2). Can be executed.

なお、図2に示したステップS4〜S6における目標停止位置までの移動進路については、例えば次のように既存技術(例えば前出の特許文献1参照)を利用することで決められる。即ち、先ず、受信部16a〜16d各々において受信された電子キー20から発信される電波信号の受信強度に基づいて、電子キー20の位置(例えば、車両1を中心とした方角、車両1からの距離等)により、或いはこれに加えて又は代えて、カメラ13に写ったカメラ13に対するユーザ101の相対位置により、ユーザ101の現在位置が特定される。更に、例えば不図示のGPSにより認識された車両1の位置と地図データベース15とカメラ13や物体検出センサ18による車両1周囲の障害物の検出結果とに基づいて、この現在位置までの移動進路が特定される。本実施形態では特に、何れの場合にあっても、移動進路は、手荷物102の存在を考慮して決定された、駐車位置から目標停止位置までの進路とされる。   In addition, about the movement course to the target stop position in step S4-S6 shown in FIG. 2, it is determined by utilizing the existing technique (for example, refer patent document 1 mentioned above) as follows, for example. That is, first, based on the reception intensity of the radio signal transmitted from the electronic key 20 received by each of the receiving units 16a to 16d, the position of the electronic key 20 (for example, the direction centered on the vehicle 1, the direction from the vehicle 1). The current position of the user 101 is specified by the relative position of the user 101 with respect to the camera 13 captured by the camera 13 according to or in addition to or instead of the distance. Further, for example, based on the position of the vehicle 1 recognized by the GPS (not shown), the map database 15, and the detection results of the obstacles around the vehicle 1 by the camera 13 and the object detection sensor 18, the movement path to this current position is determined. Identified. In this embodiment, in particular, in any case, the moving route is a route from the parking position to the target stop position determined in consideration of the presence of the baggage 102.

以上図2から図4を参照して説明したように、ユーザ101の手荷物102に応じてステップS4〜S6のいずれかの処理が実行されることで、本実施形態に係る一連の車寄せの処理、即ち自動出庫処理が完了する。   As described above with reference to FIG. 2 to FIG. 4, by performing any one of steps S4 to S6 according to the baggage 102 of the user 101, a series of vehicle shifting processes according to the present embodiment, That is, the automatic delivery process is completed.

なお上述した実施形態の変形形態としては、第2記憶部32は、荷物情報と目標停止位置情報とを相互に関連付けて記憶し、制御用PC11は、第2記憶部32に記憶された荷物情報とこれに関連付けられる或いは対応する目標停止位置情報とに基づいて、最適な目標停止位置を決定するように構成されてもよい。典型的には、制御用PC11は、第2記憶部32の中で、特定された手荷物102に関連付けられる目標停止位置情報により示される目標停止位置をそのまま、ここでの最適な目標停止位置に決定するように構成されてもよい。荷物載置場所を手荷物102に対して固定された場所であるという規約(例えば、大きな荷物はトランクへ、小さな手荷物はユーザがそのまま持って乗車などの規約)の下での運用であれば、荷物載置場所情報を用いることなく、より簡易な処理で相応の利便性を向上できるという利益が得られる。   As a modification of the above-described embodiment, the second storage unit 32 stores the package information and the target stop position information in association with each other, and the control PC 11 stores the package information stored in the second storage unit 32. And the target stop position information associated with or corresponding to the target stop position information may be determined. Typically, the control PC 11 determines the target stop position indicated by the target stop position information associated with the specified baggage 102 in the second storage unit 32 as the optimum target stop position here. It may be configured to. If the baggage is to be operated under the rules that the place where the baggage is placed is fixed with respect to the baggage 102 (for example, a rule that a large baggage is placed in the trunk and a small baggage is carried by the user as it is) The advantage that corresponding convenience can be improved by simpler processing without using the mounting location information is obtained.

以上のように本発明によれば、ユーザ101が携行している手荷物102に応じて、ユーザ101が該手荷物102を収納しやすいように自動出庫機能における目標停止位置が決定されるので、ユーザ101にとっての利便性は向上される。特に、手荷物102の有無にかかわらず、車両1の寄せ方を人間中心とした場合(即ち、停止後に、ユーザ101が運転席に座るのに最適の位置に停止する場合)に比べて、車の寄せ方をより最適に近いものとできる。加えて、自動出庫を開始させる際に携帯電話の操作を必要とする場合(例えば前出の特許文献1参照)に比べ、ユーザ101に携帯電話を取り出させたり、携帯電話を操作させたりといった煩わしさを与えることもない。巨大なスーツケースや段ボール箱などをユーザ101が車両1に積む可能性があること、そのような場合における(人間中心とした場合に発生する)目標停止位置の最適な停止位置からの大きなズレを無くせる或いは軽減できること、これにより荷積みに費やす労力を大幅に軽減できることを考えれば、本実施形態における利益が非常に大きいものであることが分かる。   As described above, according to the present invention, the target stop position in the automatic delivery function is determined according to the baggage 102 carried by the user 101 so that the user 101 can easily store the baggage 102. The convenience for the user is improved. In particular, regardless of the presence or absence of the baggage 102, the vehicle 1 approach is centered on humans (that is, after stopping, the user 101 stops at the optimal position for sitting in the driver's seat). The approach can be made closer to the optimum. In addition, compared to the case where the operation of the mobile phone is required when starting automatic delivery (see, for example, the above-mentioned Patent Document 1), the user 101 has to take out the mobile phone or operate the mobile phone. It doesn't give a sense. There is a possibility that the user 101 may load a huge suitcase or a cardboard box on the vehicle 1, and in such a case, a large deviation from the optimal stop position of the target stop position (occurring when the human center is used) Considering that it can be eliminated or reduced, and that the labor required for loading can be greatly reduced, it can be seen that the profit in this embodiment is very large.

次に図5を参照して本発明に係る他の実施形態について説明する。当該他の実施形態は、学習値を用いることなく、予め荷物或いは荷物情報に対して、該荷物を載置するのに相応しい場所として対応付け・関連付けられた荷物載置場所情報の中から、実際の自動出庫に際して、認識された手荷物102に対応するものを読み出し、この荷物載置場所情報に応じた目標停止位置へと、車両1を寄せるように構成されている。ここに、図5は、当該他の実施形態のフローチャートであり、図5において、図2と同様のステップには同じ参照符号を付し、それらの説明は適宜省略する。当該他の実施形態の基本構成は、図1に示した実施形態の構成と同じであり、図2に示した制御用PC11等により行われる処理が次のように異なる。   Next, another embodiment according to the present invention will be described with reference to FIG. According to the other embodiment, without using the learning value, the actual information can be obtained from the baggage placement location information associated / associated with the baggage or the baggage information as a place suitable for placing the baggage in advance. In the automatic delivery, the vehicle 1 corresponding to the recognized baggage 102 is read, and the vehicle 1 is brought to the target stop position according to the baggage placement location information. FIG. 5 is a flowchart of the other embodiment. In FIG. 5, the same steps as those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. The basic configuration of the other embodiment is the same as the configuration of the embodiment shown in FIG. 1, and the processing performed by the control PC 11 shown in FIG. 2 is different as follows.

図5において、ステップS1及びS2の処理が図2の実施形態の場合と同様に実行される。当該他の実施形態では特に、ステップS2の判定結果として、ドライバーが手荷物を持っている場合には(ステップS2:Yes)、制御用PC11は、第2記憶部32から荷物載置場所情報を読み出し(ステップS23)、これに基づいて、図2のステップS5の処理と同様手法により最適な停車位置を決定して、車を寄せる(ステップS25)。他方で、ステップS2の判定結果として、ドライバーが手荷物を持っていない場合には(ステップS2:No)、図2の実施形態の場合と同様にステップS6の処理が実行される。   In FIG. 5, the processes of steps S1 and S2 are executed in the same manner as in the embodiment of FIG. In the other embodiment, in particular, when the driver has baggage as a result of the determination in step S2 (step S2: Yes), the control PC 11 reads the baggage placement location information from the second storage unit 32. (Step S23) Based on this, an optimal stop position is determined by the same method as the process of Step S5 of FIG. 2, and the vehicle is brought close (Step S25). On the other hand, if the determination result of step S2 is that the driver does not have baggage (step S2: No), the process of step S6 is executed as in the embodiment of FIG.

このように当該他の実施形態によれば、学習値を用いることなく、単純に荷物に関連付けられた荷物載置場所に相応しい停止位置へ車を寄せるので、処理及び装置の簡素化を図れる。   As described above, according to the other embodiment, the vehicle is simply brought to the stop position suitable for the load placement place associated with the load without using the learning value, so that the processing and the apparatus can be simplified.

本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う自動運転車両もまた本発明の技術的範囲に含まれるものである。   The present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification. Is also included in the technical scope of the present invention.

1…車両、11…制御用PC、12…認識用PC、13、14…カメラ、30…データベース用PC、31…第1記憶部、32…第2記憶部、101…ユーザ、102…手荷物   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 11 ... Control PC, 12 ... Recognition PC, 13, 14 ... Camera, 30 ... Database PC, 31 ... First storage unit, 32 ... Second storage unit, 101 ... User, 102 ... Baggage

Claims (1)

自動出庫機能を備える自動運転車両であって、
前記自動運転車両の周辺の少なくとも一部を撮像する撮像部と、
前記自動運転車両のユーザに関するユーザ画像情報及び前記ユーザの荷物に関する荷物画像情報を予め記憶する第1記憶部と、
前記荷物を識別する荷物情報と、前記荷物の前記自動運転車両内における載置場所を示す荷物載置場所情報及び前記自動運転車両の目標停止位置を示す目標停止位置情報のうち少なくとも荷物載置場所情報とを、相互に関連付けて記憶する第2記憶部と、
前記撮像された画像、前記記憶されたユーザ画像情報及び前記記憶された荷物画像情報に基づいて、前記ユーザにより携行される荷物を特定し、該特定された荷物に係る前記荷物情報と前記記憶された荷物載置場所情報とに基づいて、前記荷物を携行する前記ユーザに対する前記目標停止位置を決定する制御部と
を備えることを特徴とする自動運転車両。
An autonomous driving vehicle having an automatic delivery function,
An imaging unit for imaging at least a part of the periphery of the autonomous driving vehicle;
A first storage unit that stores in advance user image information relating to a user of the autonomous driving vehicle and baggage image information relating to the user's luggage;
At least the luggage placement location among the luggage information for identifying the luggage, the luggage placement location information indicating the placement location of the luggage in the autonomous driving vehicle, and the target stop position information indicating the target stop position of the autonomous driving vehicle. A second storage unit that stores information in association with each other;
Based on the captured image, the stored user image information, and the stored baggage image information, a baggage carried by the user is specified, and the baggage information related to the specified baggage is stored with the stored baggage information. And a control unit for determining the target stop position for the user carrying the luggage based on the information on the luggage placement location.
JP2016077560A 2016-04-07 2016-04-07 Automatic drive vehicle Pending JP2017185954A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016077560A JP2017185954A (en) 2016-04-07 2016-04-07 Automatic drive vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016077560A JP2017185954A (en) 2016-04-07 2016-04-07 Automatic drive vehicle

Publications (1)

Publication Number Publication Date
JP2017185954A true JP2017185954A (en) 2017-10-12

Family

ID=60045257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016077560A Pending JP2017185954A (en) 2016-04-07 2016-04-07 Automatic drive vehicle

Country Status (1)

Country Link
JP (1) JP2017185954A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108612431A (en) * 2018-04-10 2018-10-02 上海博泰悦臻网络技术服务有限公司 Standby box control method, device and vehicle
KR20190116062A (en) * 2018-03-19 2019-10-14 폭스바겐 악티엔 게젤샤프트 A method for driving out a motor vehicle from a parking space and motor vehicle with a control unit for carrying out such method
JP2020052942A (en) * 2018-09-28 2020-04-02 株式会社Subaru Vehicle control device and program
CN111619571A (en) * 2019-02-27 2020-09-04 本田技研工业株式会社 Vehicle control system, vehicle control method, and storage medium
JP2020160705A (en) * 2019-03-26 2020-10-01 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JP2021101303A (en) * 2019-12-24 2021-07-08 楽天グループ株式会社 Transport system, control device and method
CN114724397A (en) * 2020-12-22 2022-07-08 丰田自动车株式会社 Automatic driving device and automatic driving method
US11414085B2 (en) 2019-03-27 2022-08-16 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium
JP7347349B2 (en) 2020-07-07 2023-09-20 トヨタ自動車株式会社 Information processing device, information processing system, and information processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007001724A (en) * 2005-06-23 2007-01-11 Fujitsu Ten Ltd Vehicle load management device
JP2008009913A (en) * 2006-06-30 2008-01-17 Toyota Motor Corp Automatic vehicle driving system
JP2013177128A (en) * 2013-04-10 2013-09-09 Toyota Motor Corp Vehicle remote control system and on-vehicle machine

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007001724A (en) * 2005-06-23 2007-01-11 Fujitsu Ten Ltd Vehicle load management device
JP2008009913A (en) * 2006-06-30 2008-01-17 Toyota Motor Corp Automatic vehicle driving system
JP2013177128A (en) * 2013-04-10 2013-09-09 Toyota Motor Corp Vehicle remote control system and on-vehicle machine

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102203673B1 (en) 2018-03-19 2021-01-18 폭스바겐 악티엔게젤샤프트 A method for driving out a motor vehicle from a parking space and motor vehicle with a control unit for carrying out such method
KR20190116062A (en) * 2018-03-19 2019-10-14 폭스바겐 악티엔 게젤샤프트 A method for driving out a motor vehicle from a parking space and motor vehicle with a control unit for carrying out such method
CN108612431A (en) * 2018-04-10 2018-10-02 上海博泰悦臻网络技术服务有限公司 Standby box control method, device and vehicle
JP2020052942A (en) * 2018-09-28 2020-04-02 株式会社Subaru Vehicle control device and program
CN110962861A (en) * 2018-09-28 2020-04-07 株式会社斯巴鲁 Vehicle control device and storage medium
US11628828B2 (en) 2018-09-28 2023-04-18 Subaru Corporation Vehicle controlling device and computer readable recording medium
CN111619571A (en) * 2019-02-27 2020-09-04 本田技研工业株式会社 Vehicle control system, vehicle control method, and storage medium
CN111619571B (en) * 2019-02-27 2023-11-14 本田技研工业株式会社 Vehicle control system, vehicle control method, and storage medium
CN111766868A (en) * 2019-03-26 2020-10-13 本田技研工业株式会社 Vehicle control device, vehicle control method, and storage medium
JP2020160705A (en) * 2019-03-26 2020-10-01 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
US11414085B2 (en) 2019-03-27 2022-08-16 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium
JP2021101303A (en) * 2019-12-24 2021-07-08 楽天グループ株式会社 Transport system, control device and method
JP7138618B2 (en) 2019-12-24 2022-09-16 楽天グループ株式会社 Conveying system, controller and method
JP7347349B2 (en) 2020-07-07 2023-09-20 トヨタ自動車株式会社 Information processing device, information processing system, and information processing method
CN114724397A (en) * 2020-12-22 2022-07-08 丰田自动车株式会社 Automatic driving device and automatic driving method
JP7363757B2 (en) 2020-12-22 2023-10-18 トヨタ自動車株式会社 Automatic driving device and automatic driving method
US11807223B2 (en) 2020-12-22 2023-11-07 Toyota Jidosha Kabushiki Kaisha Automated drive device and automated drive method
CN114724397B (en) * 2020-12-22 2024-04-05 丰田自动车株式会社 Automatic driving device and automatic driving method

Similar Documents

Publication Publication Date Title
JP2017185954A (en) Automatic drive vehicle
US11138545B2 (en) System and method for securely delivering packages to different delivery recipients with a single vehicle
WO2021162951A1 (en) Modular delivery systems with access lockers
US9741010B1 (en) System and method for securely delivering packages to different delivery recipients with a single vehicle
US10287116B2 (en) Method and system for loading a motor vehicle
CN100545885C (en) Parking position search assisting apparatus, method
JP6528870B1 (en) Autonomous mobile and delivery system
US20190244167A1 (en) Information processing apparatus, pick-up and delivery system, pick-up and delivery method, and non-transitory computer readable recording medium
US11410436B2 (en) Method and system for vision-based vehicle interior environment sensing guided by vehicle prior information
JP7027914B2 (en) Mobile object, luggage sorting support method, luggage sorting support program and luggage sorting support system
US20180233033A1 (en) Device and method for operating a parking facility
US10796174B2 (en) Distance and object based external notification system for automated hailing service
JP7403546B2 (en) Remaining object detection
US11161412B2 (en) Electric scooter piloting method, electric scooter and storage medium
US20220004974A1 (en) System and method for securely delivering packages to different delivery recipients with a single vehicle
WO2017068871A1 (en) Information processing device, information processing method, and transportation system
US20190244042A1 (en) Rider rating systems and methods for shared autonomous vehicles
US20200050858A1 (en) Method and apparatus of providing information on item in vehicle
US20200023764A1 (en) Systems and methods for providing portable containers to users of vehicle services
US20210300297A1 (en) Vehicle systems for dynamic crowdsourced delivery
US20230409627A1 (en) Object search service employing an autonomous vehicle fleet
US11361559B2 (en) System and method for cargo management in a motor vehicle
US11325779B2 (en) Smart locker automated transfer system and method
CN113099385A (en) Parking monitoring method, system and equipment
US20190377360A1 (en) Method for item delivery using autonomous driving vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191015