JP2018097737A - Operation state controller and operation state control method - Google Patents

Operation state controller and operation state control method Download PDF

Info

Publication number
JP2018097737A
JP2018097737A JP2016243565A JP2016243565A JP2018097737A JP 2018097737 A JP2018097737 A JP 2018097737A JP 2016243565 A JP2016243565 A JP 2016243565A JP 2016243565 A JP2016243565 A JP 2016243565A JP 2018097737 A JP2018097737 A JP 2018097737A
Authority
JP
Japan
Prior art keywords
vehicle
processing unit
passenger
information
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016243565A
Other languages
Japanese (ja)
Other versions
JP6892258B2 (en
Inventor
正治 明井
Masaharu Akei
正治 明井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016243565A priority Critical patent/JP6892258B2/en
Publication of JP2018097737A publication Critical patent/JP2018097737A/en
Application granted granted Critical
Publication of JP6892258B2 publication Critical patent/JP6892258B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an operation state controller capable of improving serviceability for an occupant.SOLUTION: The operation state controller includes an image processing part; a correlation processing and a mode processing part. The image processing part processes image data acquired by a camera including the outside of a vehicle in a visual field and acquires image information in a visual field of an occupant in the vehicle. The correlation processing part creates attribute information of the occupant by correlation processing using the image information. The mode processing part identifies an operation mode for the occupant on the basis of the attribute information.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、運転状態制御装置および運転状態制御方法に関する。   Embodiments described herein relate generally to an operation state control device and an operation state control method.

例えば非特許文献1、2に開示されるように、カメラで撮影された画像内の人物を検出する技術が知られている。特許文献1には、車椅子に乗った人物を検出する技術も開示されている。近年ではこのように画像処理技術の発達が著しく、人物はもちろん、その状態や属性、所有物などの情報を画像から取得できるようになってきている。   For example, as disclosed in Non-Patent Documents 1 and 2, a technique for detecting a person in an image taken by a camera is known. Patent Document 1 also discloses a technique for detecting a person on a wheelchair. In recent years, development of image processing technology has been remarkable in this way, and it has become possible to acquire information such as the state, attributes, and possessions of a person as well as a person from an image.

この種の技術を車両の安全運転に応用することが期待されており、例えば特許文献2〜4に示されるような技術や、非特許文献3のような基準が開示されている。非特許文献4には車載カメラを利用して夜間の運転をサポートする技術も紹介されている。   It is expected that this type of technology is applied to safe driving of vehicles. For example, the technologies shown in Patent Documents 2 to 4 and the standards such as Non-Patent Document 3 are disclosed. Non-Patent Document 4 also introduces a technology that supports driving at night using an in-vehicle camera.

米国特許第7043084号明細書US Patent No. 7043084 国際公開第2016/121174号パンフレットInternational Publication No. 2016/121174 Pamphlet 特開2015−133050号公報JP 2015-1333050 A 国際公開第2014/054153号パンフレットInternational Publication No. 2014/054153 Pamphlet

渡辺 友樹 著、「新しい特徴量を用いた高精度人物検出技術」、東芝レビュー Vol.65 No.4 (2010)、p72〜73Yuki Watanabe, “High-precision human detection technology using new features”, Toshiba Review Vol. 65 No. 4 (2010), p72-73 ファン クォク ヴェト 著、「カメラの視界から一時的に隠れても追跡可能な人物追跡技術」、東芝レビュー Vol.70 No.6 (2015)、p56〜57Van Kwok Vet, “Person tracking technology that can be tracked even if temporarily hidden from view”, Toshiba review Vol. 70 No. 6 (2015), p56-57 国土交通省、自動車局 報道発表資料“バックミラー等に代わる「カメラモニタリングシステム」の基準を整備します。” ,[online],[平成28年11月30日検索],インターネット,<URL:http://www.mlit.go.jp/report/press/jidosha07_hh_000211.html>Ministry of Land, Infrastructure, Transport and Tourism, Automobile Bureau Press Release “Standards for“ camera monitoring systems ”to replace rearview mirrors, etc.” ”, [Online], [searched November 30, 2016], Internet, <URL: http: //www.mlit.go.jp/report/press/jidosha07_hh_000211.html> “トヨタ | 安全技術 | ナイトビュー”,[online],[平成28年11月30日検索],インターネット,<URL:http://www.toyota.co.jp/jpn/tech/safety/technology/technology_file/active/night_view.html>“Toyota | Safety Technology | Night View”, [online], [searched November 30, 2016], Internet, <URL: http://www.toyota.co.jp/eng/tech/safety/technology/ technology_file / active / night_view.html> “通信自由化以降の通信政策の評価とICT社会の未来像等に関する調査研究”,[online],[平成28年11月30日検索],インターネット,<URL:http://www.soumu.go.jp/johotsusintokei/linkdata/h27_01_houkoku.pdf>“Survey research on communication policy evaluation and future image of ICT society after communication liberalization”, [online], [searched on November 30, 2016], Internet, <URL: http: //www.soumu. go.jp/johotsusintokei/linkdata/h27_01_houkoku.pdf>

上記したように近年、車両の運転を画像認識技術によりサポートする技術が進展してきているが、いずれも安全運転の支援を第一義とするものであって搭乗者の快適性やホスピタリティを向上させることに注目した技術は少ない。例えば、画像認識により得られた知見をいわゆる“自動運転”の分野にまで適用可能とする技術は、発展の途上にある。   As mentioned above, in recent years, technologies for supporting vehicle driving with image recognition technology have been developed, but all of them are primarily for safe driving support and improve passenger comfort and hospitality. There are few technologies that focus on this. For example, a technology that can apply the knowledge obtained by image recognition to the field of so-called “automatic driving” is in the process of development.

自動運転技術、あるいは自動運転支援技術を応用した車両を、近い将来、市場に提供する計画がある。またそれに伴って、自動運転システムを搭載したカーシェアリングやレンタカーなどのサービスも開始されるであろう。しかしながらこの種のサービスの提供にあたり、搭乗者(運転者を含んでもよい)の属性を運転に反映させることのできる技術は知られていない。   There are plans to provide vehicles to the market in the near future using automatic driving technology or automatic driving support technology. Along with this, services such as car sharing and car rental equipped with an automatic driving system will be started. However, in providing this type of service, there is no known technique that can reflect the attributes of the passenger (which may include the driver) in driving.

例えばカーシェアリング/レンタカーでは、運転者の望む車両を固定的に継続利用することはできない。良くても車種を指定できるくらいで、それも確実ではない。専用車両を使えないこのような環境下で例えばルート選定、加減速に関する注意喚起、あるいは車線変更といった自動運転機能を利用するには、安全面だけでなく、搭乗者への配慮がより重要な意味を持ってくる。さらに、非特許文献5に記載されるような、歩行補助具として近い将来現れるであろう、運動能力をアシストできるアクチュエータ技術(パワードスーツなど)を搭乗者が用いているケースにも対応できるようにする必要がある。   For example, in car sharing / rental car, the vehicle desired by the driver cannot be used continuously. At best, it is possible to specify the vehicle type, which is not certain. In such an environment where a dedicated vehicle cannot be used, in order to use automatic driving functions such as route selection, warning about acceleration / deceleration, or lane change, not only safety but also consideration for passengers is more important Bring. Furthermore, as described in Non-Patent Document 5, it is possible to deal with a case where a passenger uses an actuator technology (such as a powered suit) that can assist athletic ability, which will appear in the near future as a walking aid. There is a need to.

この発明は上記事情に鑑みてなされたものであり、その目的は、搭乗者へのサービス性を高めた運転状態制御装置および運転状態制御方法を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a driving state control device and a driving state control method with improved serviceability for passengers.

実施形態によれば、運転状態制御装置は、画像処理部と、相関処理部と、モード処理部とを備える。画像処理部は、車両の外部を視野に含むカメラで取得された画像データを処理して、車両の搭乗者の視野における画像情報を取得する。相関処理部は、画像情報を用いた相関処理により、搭乗者の属性情報を生成する。モード処理部は、属性情報に基づいて、搭乗者のための運転モードを特定する。   According to the embodiment, the driving state control device includes an image processing unit, a correlation processing unit, and a mode processing unit. The image processing unit processes image data acquired by a camera including the outside of the vehicle in the field of view, and acquires image information in the field of view of the passenger of the vehicle. The correlation processing unit generates passenger attribute information by correlation processing using image information. The mode processing unit specifies a driving mode for the passenger based on the attribute information.

図1は、実施形態に係る運転状態制御装置の一例を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating an example of an operation state control apparatus according to the embodiment. 図2は、車外カメラ31、車内カメラ32の設置例を示す図である。FIG. 2 is a diagram illustrating an installation example of the outside camera 31 and the inside camera 32. 図3は、車外カメラ31の設置例を示す図である。FIG. 3 is a diagram illustrating an installation example of the camera 31 outside the vehicle. 図4は、ECU20における処理手順の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of a processing procedure in the ECU 20. 図5は、ECU20における処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of a processing procedure in the ECU 20. 図6は、図1の各センサの検知結果と搭乗者の属性の推定結果との相関を時系列で示す図である。FIG. 6 is a diagram showing the correlation between the detection result of each sensor of FIG. 1 and the estimation result of the passenger attribute in time series. 図7は、表示器40に表示されるプロンプトメッセージの一例を示す図である。FIG. 7 is a diagram illustrating an example of a prompt message displayed on the display 40. 図8は、表示器40に表示されるプロンプトメッセージの他の例を示す図である。FIG. 8 is a diagram illustrating another example of the prompt message displayed on the display 40.

図1は、実施形態に係る運転状態制御装置の一例を示す機能ブロック図である。以下、図1において符号20を付したECU(electronic control unit)を、運転状態制御装置の一例として説明する。   FIG. 1 is a functional block diagram illustrating an example of an operation state control apparatus according to the embodiment. Hereinafter, an electronic control unit (ECU) denoted by reference numeral 20 in FIG. 1 will be described as an example of an operation state control device.

ECU20は、車両の自動運転システム10と、この車両に備えられたセンサシステム30とに接続される。他にも車両は、表示器40、スピーカ50、および照明70を備える。さらに、車両は、後部ドアのロック/アンロックを制御する後部ドアロック制御部60を備えていても良い。   The ECU 20 is connected to an automatic driving system 10 for the vehicle and a sensor system 30 provided in the vehicle. In addition, the vehicle includes a display 40, a speaker 50, and a lighting 70. Further, the vehicle may include a rear door lock control unit 60 that controls locking / unlocking of the rear door.

表示器40は、例えば運転席と助手席との間に設置され、タッチパネル型LCD(Liquid Crystal Display)などのユーザインタフェースである。表示器40に表示されるGUI(Graphical User Interface)、あるいはスピーカ50からの音声メッセージによりユーザ(搭乗者)に種々のメッセージが与えられる。また、表示器40のGUIから与えられたユーザの指示は、ECU20を介して自動運転システム10に渡される。   The display device 40 is installed between a driver seat and a passenger seat, for example, and is a user interface such as a touch panel LCD (Liquid Crystal Display). Various messages are given to the user (passenger) by a GUI (Graphical User Interface) displayed on the display 40 or a voice message from the speaker 50. In addition, the user's instruction given from the GUI of the display 40 is passed to the automatic driving system 10 via the ECU 20.

自動運転システム10は、ECU20の対向機材として設けられ、車両の自動運転に関する制御を担う。例えば自動運転システム10は、ECU20から指定された運転モードに従って車両の運転を制御する。   The automatic driving system 10 is provided as an opposing device of the ECU 20 and is responsible for control related to automatic driving of the vehicle. For example, the automatic driving system 10 controls driving of the vehicle according to the driving mode specified by the ECU 20.

センサシステム30は、車外カメラ31、車内カメラ32、ドアロック解除センサ33、ドア開閉センサ34、ビーコン受信機35、マイク36、およびシート感圧センサ37を備える。   The sensor system 30 includes an outside camera 31, an inside camera 32, a door unlock sensor 33, a door opening / closing sensor 34, a beacon receiver 35, a microphone 36, and a seat pressure sensor 37.

車外カメラ31は、車両の外部を視野に含むカメラであって、視野内を撮像して画像データを取得する。すなわち車外カメラ31は車両の周辺を撮影するカメラであり、少なくとも車両のドアに接近する搭乗者を撮影可能であればよい。非特許文献3に示されるカメラモニタリングシステムと車外カメラ31とを共用することも可能である。特に、照明70と連動するタイプのものであれば夜間等の暗い中であっても良好な画像を取得できるし、暗視機能を備えたカメラであってもよい。   The vehicle exterior camera 31 is a camera that includes the outside of the vehicle in the field of view, and captures the inside of the field of view to acquire image data. That is, the camera 31 outside the vehicle is a camera that captures the periphery of the vehicle, as long as it can capture at least a passenger approaching the door of the vehicle. It is also possible to share the camera monitoring system shown in Non-Patent Document 3 and the camera 31 outside the vehicle. In particular, as long as it is of a type interlocking with the illumination 70, a good image can be obtained even in the dark such as at night, and a camera having a night vision function may be used.

車内カメラ32は、車両の内部(車内)を視野に含む画像センサであって、視野内を撮像して画像データを取得する。すなわち車内カメラ32は車内を撮影するカメラであって、少なくとも車内の各シートの着席状況を撮影できるものであればよい。なお車内カメラ32の個数に制限はなく、例えば小型車両の前部に設置されたカメラで後部座席の状態を撮影可能であれば、後部に別途カメラを設置する必要はない。車外カメラ31も同様である。   The in-vehicle camera 32 is an image sensor that includes the inside of the vehicle (inside the vehicle) in the field of view, and captures the inside of the field of view to acquire image data. That is, the in-vehicle camera 32 may be any camera that captures the interior of the vehicle and can capture at least the seating situation of each seat in the vehicle. The number of in-vehicle cameras 32 is not limited. For example, if the rear seat state can be photographed with a camera installed at the front of a small vehicle, there is no need to install a separate camera at the rear. The same applies to the camera 31 outside the vehicle.

図2および図3は、車外カメラ31、車内カメラ32の設置例を示す図である。車外カメラ31は例えばバックミラーの位置に取り付けられてカメラモニタリングシステムと併用することができる。車内カメラ32は例えば車両の天井から車内を見下ろす位置に取り付けられる。魚眼レンズなどの広視野角のカメラを用いても良い。   2 and 3 are diagrams showing examples of installation of the outside camera 31 and the inside camera 32. For example, the camera 31 outside the vehicle can be attached to the position of the rearview mirror and used together with the camera monitoring system. The in-vehicle camera 32 is attached, for example, at a position looking down from the ceiling of the vehicle. A wide viewing angle camera such as a fisheye lens may be used.

図1に戻って説明を続ける。ドアロック解除センサ33は、車両のドアロックの状態を検知する。ドア開閉センサ34は、車両の各ドアに設置され、それぞれのドアの開閉状態を検知する。なお車外カメラ31、車内カメラ32で撮影した画像データから各ドアの開閉状態を判定しその情報を相関処理部26に渡すことができれば、ドア開閉センサ34を省略しても良い。   Returning to FIG. 1, the description will be continued. The door lock release sensor 33 detects the door lock state of the vehicle. The door open / close sensor 34 is installed at each door of the vehicle and detects the open / closed state of each door. Note that the door opening / closing sensor 34 may be omitted if the opening / closing state of each door can be determined from the image data taken by the outside camera 31 and the inside camera 32 and the information can be passed to the correlation processing unit 26.

ビーコン受信機35は、車両に装荷されてビーコン発信機80からのビーコン信号を受信する。ビーコン発信機80は、例えば車いすや松葉づえ等の歩行補助具に取り付けることが可能で、その使用者の属性を反映する情報を含むビーコン信号を、無線送信する。実施形態においては、ビーコン発信機80は搭乗者自身が携帯するものとし、搭乗者の属性に応じて異なる信号を発信する。ビーコン発信機80としては、BLE(Bluetooth(登録商標) Low Energy)等の近距離無線型の発信機を用いることができる。   The beacon receiver 35 is loaded on the vehicle and receives a beacon signal from the beacon transmitter 80. The beacon transmitter 80 can be attached to a walking aid such as a wheelchair or a crutch, and wirelessly transmits a beacon signal including information reflecting the attribute of the user. In the embodiment, the beacon transmitter 80 is carried by the passenger himself and transmits different signals according to the attributes of the passenger. As the beacon transmitter 80, a short-range wireless transmitter such as BLE (Bluetooth (registered trademark) Low Energy) can be used.

受信されたビーコン信号に基づいて歩行補助具の存在を直接、確認することができる。あるいは、ビーコン信号と車外カメラ31で検知された人物とを対応付けることで歩行補助具の有無を判定してもよい。   The presence of the walking aid can be directly confirmed based on the received beacon signal. Or you may determine the presence or absence of a walk aid by matching a beacon signal and the person detected with the camera 31 outside the vehicle.

マイク36は、車両に装荷されて車内外の音声や音を捕え、音声信号を出力する。シート感圧センサ37は、車両のシートごとに設けられる圧力センサであり、検知した圧力の値に基づいてシート状の搭乗者の有無を検知する。シート上の搭乗者の有無に関する情報は相関処理部26に渡される。   The microphone 36 is loaded on the vehicle, captures sounds and sounds inside and outside the vehicle, and outputs a sound signal. The seat pressure sensor 37 is a pressure sensor provided for each seat of the vehicle, and detects the presence or absence of a seat-like occupant based on the detected pressure value. Information regarding the presence or absence of a passenger on the seat is passed to the correlation processing unit 26.

次に、ECU20は、実施形態に係る処理機能として画像処理部21、ドアロック解除検知処理部22、ドア開閉感知処理部23、ビーコン受信処理部24、音声処理部25、相関処理部26、ユーザインタフェース部27、運転モード選択処理部28、および荷物搬入支援処理部29を備える。   Next, the ECU 20 includes an image processing unit 21, a door lock release detection processing unit 22, a door opening / closing detection processing unit 23, a beacon reception processing unit 24, an audio processing unit 25, a correlation processing unit 26, and a user as processing functions according to the embodiment. An interface unit 27, an operation mode selection processing unit 28, and a baggage carry-in support processing unit 29 are provided.

画像処理部21は、車外カメラ31で取得された画像データを処理して、車両の搭乗者の主に車外における画像情報を取得する。また画像処理部21は、車内カメラ32で取得された画像データを処理して車内の画像情報を取得する。特に画像処理部21は、車内の画像情報に基づいてチャイルドシートの有無を判定し、判定の結果を相関処理部26に渡す。チャイルドシートなどの物体の有無を判定することは、既存の画像処理ライブラリ等を活用することで技術的に可能である。   The image processing unit 21 processes the image data acquired by the vehicle camera 31 to acquire image information mainly outside the vehicle passengers. Further, the image processing unit 21 processes the image data acquired by the in-vehicle camera 32 to acquire in-vehicle image information. In particular, the image processing unit 21 determines the presence or absence of a child seat based on image information in the vehicle, and passes the determination result to the correlation processing unit 26. It is technically possible to determine the presence or absence of an object such as a child seat by utilizing an existing image processing library or the like.

ドアロック解除検知処理部22は、ドアロック解除センサ33からの検知情報を処理する。ドア開閉感知処理部23は、ドア開閉センサ34からの検知情報を処理する。   The door lock release detection processing unit 22 processes detection information from the door lock release sensor 33. The door opening / closing detection processing unit 23 processes detection information from the door opening / closing sensor 34.

ビーコン受信処理部24は、ビーコン受信機35で受信されたビーコン信号を処理してビーコン情報を取得する。このビーコン情報は相関処理部26に渡される。音声処理部25は、マイク36から出力される音声信号を処理して音声情報を取得する。   The beacon reception processing unit 24 processes the beacon signal received by the beacon receiver 35 and acquires beacon information. This beacon information is passed to the correlation processing unit 26. The audio processing unit 25 processes the audio signal output from the microphone 36 and acquires audio information.

相関処理部26は、画像処理部21から出力される少なくとも車外を撮像して得られた画像情報を用いた相関処理により、車両の搭乗者の属性情報を生成する。相関処理とは、例えば複数のセンシングデータを統合的に処理する、センサフュージョン等の技術を応用することで当業者には容易に理解され得るであろう。   The correlation processing unit 26 generates attribute information of a vehicle occupant by correlation processing using image information obtained by imaging at least the outside of the vehicle output from the image processing unit 21. The correlation processing can be easily understood by those skilled in the art by applying a technique such as sensor fusion that integrally processes a plurality of sensing data.

搭乗者の属性情報とは、例えば年齢、性別、歩行補助具(車いす、松葉づえなど)の有無、あるいはペットを連れているかそうでないか、などを示す情報である。このほかシーンに応じて多種多様な属性情報を考えることができる。   Passenger attribute information is information indicating, for example, age, sex, presence / absence of walking aids (wheelchairs, crutches, etc.) or whether or not a pet is present. In addition, various attribute information can be considered according to the scene.

特に、相関処理部26は、搭乗者の画像情報と車内の画像情報との相関処理により、搭乗者の属性情報を生成する。また相関処理部26は、ビーコン情報を用いた相関処理により搭乗者の属性情報を生成する。   In particular, the correlation processing unit 26 generates passenger attribute information through correlation processing between the passenger's image information and the in-vehicle image information. Moreover, the correlation process part 26 produces | generates a passenger's attribute information by the correlation process using beacon information.

また相関処理部26は、音声情報を用いた相関処理により搭乗者の属性情報を生成することも可能である。特に、相関処理部26は、ドアロック解除が検知されると相関処理を開始するようにしても良い。   The correlation processing unit 26 can also generate passenger attribute information by correlation processing using audio information. In particular, the correlation processing unit 26 may start the correlation processing when door unlocking is detected.

また、相関処理部26は、車両のドアの開状態と閉状態の時系列の変化に基づいて各ドアから車両に乗り込んだ搭乗者ごとの属性情報を生成する。また、相関処理部26は、シート感圧センサ37の感応したシートの搭乗者の属性情報を生成する。   In addition, the correlation processing unit 26 generates attribute information for each occupant who has entered the vehicle from each door based on a time-series change between the open state and the closed state of the vehicle door. In addition, the correlation processing unit 26 generates attribute information of the passenger of the seat to which the seat pressure sensor 37 is sensitive.

特に、相関処理部26は、搭乗者の歩行補助具の使用の有無に関する属性情報を生成する。さらに、相関処理部26は、チャイルドシートの有無に関する情報を相関処理に反映させて搭乗者の属性情報を生成する。   In particular, the correlation processing unit 26 generates attribute information related to whether or not the passenger's walking aid is used. Further, the correlation processing unit 26 reflects the information related to the presence / absence of the child seat in the correlation processing to generate passenger attribute information.

次に、ユーザインタフェース部27は、車内の表示器40およびスピーカ50に接続されて、ECU20とユーザとが種々の情報を授受する仲立ちとなる。例えば、ユーザインタフェース部27は、運転モード選択処理部28で抽出された複数の運転モードを表示器40およびスピーカ50を介してユーザに提示する。また、表示器40のタッチパネルを用いて指定された運転モードは、ユーザインタフェース部27を介してECU20に入力される。   Next, the user interface unit 27 is connected to the display 40 and the speaker 50 in the vehicle, and serves as an intermediary between the ECU 20 and the user to exchange various information. For example, the user interface unit 27 presents a plurality of operation modes extracted by the operation mode selection processing unit 28 to the user via the display 40 and the speaker 50. The operation mode designated using the touch panel of the display device 40 is input to the ECU 20 via the user interface unit 27.

運転モード選択処理部28は、相関処理部26で生成された搭乗者の属性情報に基づいて、当該搭乗者のための運転モードを特定する。特に運転モード選択処理部28は、搭乗者の属性情報に基づいて複数の運転モードを抽出し、これらの複数の運転モードを表示器40またはスピーカ50(ユーザインタフェース)を介してユーザに報知する。表示器40に表示された複数の運転モードのいずれかがユーザにより指定されると、運転モード選択処理部28は、この指定された運転モードを搭乗者のための運転モードとして特定する。   The driving mode selection processing unit 28 specifies the driving mode for the passenger based on the passenger attribute information generated by the correlation processing unit 26. In particular, the operation mode selection processing unit 28 extracts a plurality of operation modes based on the passenger's attribute information, and notifies the user of the plurality of operation modes via the display 40 or the speaker 50 (user interface). When any of the plurality of operation modes displayed on the display device 40 is designated by the user, the operation mode selection processing unit 28 specifies the designated operation mode as the operation mode for the passenger.

また、運転モード選択処理部28は、この特定された運転モードを自動運転システム10に通知する。より詳しくは、運転モード選択処理部28は、特定された運転モードを反映する車両制御パラメータの組み合わせを、自動運転システム10に通知する。車両制御パラメータとは、例えば加減速範囲、速度範囲、および移動経路の少なくともいずれかであって良いし、この他種々のパラメータを考えることができる。   In addition, the operation mode selection processing unit 28 notifies the automatic operation system 10 of the specified operation mode. More specifically, the driving mode selection processing unit 28 notifies the automatic driving system 10 of a combination of vehicle control parameters that reflect the specified driving mode. The vehicle control parameter may be, for example, at least one of an acceleration / deceleration range, a speed range, and a movement route, and various other parameters can be considered.

荷物搬入支援処理部29は、後部ドアロック制御部60を制御して車両の荷物室のドアを開閉する。例えば車外カメラ31の映像から搭乗者が大型の荷物や車いすなどを伴っていることが判定されると、荷物搬入支援処理部29はトランクや後部ハッチを開けて荷物の収納を支援する。   The luggage carry-in support processor 29 controls the rear door lock controller 60 to open and close the door of the luggage compartment of the vehicle. For example, when it is determined from the video of the camera 31 outside the vehicle that the passenger is accompanied by a large baggage, a wheelchair, or the like, the baggage carry-in support processing unit 29 opens the trunk and the rear hatch to support the baggage storage.

ECU20は、上記の機能に基づいて搭乗者の属性を推定し、その結果を自動運転システム10に通知することで、適切な運転モードの指示を行う。例えばけがをしている人が登場していることが属性情報から判断されると、車両の運転者及び搭乗者に対して、加減速を抑えた“やさしい”運転等の運転モードの提案メッセージを表示器40に表示する。   The ECU 20 estimates an occupant's attribute based on the above function, and notifies the automatic driving system 10 of the result, thereby instructing an appropriate driving mode. For example, if it is determined from the attribute information that an injured person has appeared, a suggestion message for a driving mode such as “friendly” driving that suppresses acceleration / deceleration is sent to the driver and passenger of the vehicle. Display on the display 40.

図1に示される画像処理部21、ドアロック解除検知処理部22、ドア開閉感知処理部23、ビーコン受信処理部24、音声処理部25、相関処理部26、ユーザインタフェース部27、運転モード選択処理部28、および荷物搬入支援処理部29の各機能は、例えば、プロセッサにより実行可能なプログラムの形態でメモリ(図示せず)等に記憶されることができる。すなわちECU20は、プログラムをメモリから読み出し、実行することで各プログラムに対応する機能を実現するコンピュータである。   The image processing unit 21, door lock release detection processing unit 22, door opening / closing detection processing unit 23, beacon reception processing unit 24, voice processing unit 25, correlation processing unit 26, user interface unit 27, operation mode selection processing shown in FIG. Each function of the unit 28 and the baggage carry-in support processing unit 29 can be stored in a memory (not shown) or the like in the form of a program executable by the processor, for example. That is, ECU20 is a computer which implement | achieves the function corresponding to each program by reading a program from memory and executing it.

プロセッサは、CPU(central processing unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等のハードウェア資源である。次に、上記構成における作用を説明する。   The processor is a central processing unit (CPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a programmable logic device (for example, a simple programmable logic device: Hardware resources such as SPLD, complex programmable logic device (CPLD), and field programmable gate array (FPGA). Next, the operation of the above configuration will be described.

図4および図5は、ECU20における処理手順の一例を示すフローチャートである。図4において車両のドアロックが解除されると、ドアロック解除センサ33がそのことを検知しECU20への給電が開始される(ステップS1)。そうすると直ちにECU20は起動し、同時に車外カメラ31、車内カメラ32、ドア開閉センサ34、およびシート感圧センサ37なども起動される(ステップS2)。   4 and 5 are flowcharts illustrating an example of a processing procedure in the ECU 20. In FIG. 4, when the door lock of the vehicle is released, the door lock release sensor 33 detects that and power supply to the ECU 20 is started (step S1). Immediately thereafter, the ECU 20 is activated, and at the same time, the outside camera 31, the inside camera 32, the door opening / closing sensor 34, the seat pressure sensor 37, and the like are also activated (step S2).

続いて、車外カメラ31が、車両に接近する人物の動画を撮影して画像データをECU20の画像処理部21に出力する(ステップS3)。画像処理部21は画像データを処理して画像情報を生成し、接近する人物の車いす等の歩行補助具の有無、および年齢などの属性情報を画像情報から推定する。その結果は相関処理部26に出力される(ステップSS5)。   Subsequently, the outside camera 31 captures a moving image of a person approaching the vehicle and outputs image data to the image processing unit 21 of the ECU 20 (step S3). The image processing unit 21 processes the image data to generate image information, and estimates the presence / absence of a walking aid such as a wheelchair of an approaching person and attribute information such as age from the image information. The result is output to the correlation processing unit 26 (step SS5).

ここで、車外カメラ31の映像から荷物の存在が推定されると、相関処理部26は荷物搬入支援処理部29に指示を与えてトランクや後部ハッチをオープンさせ、荷物収納を支援する。   Here, when the presence of the load is estimated from the video of the camera 31 outside the vehicle, the correlation processing unit 26 gives an instruction to the load carry-in support processing unit 29 to open the trunk and the rear hatch, thereby supporting the load storage.

並行して、車内カメラ32も、車内の映像を起動後から継続して撮影している(ステップS4)。車内カメラ32により撮影された画像データは画像処理部21により処理され、画像情報が生成される。画像処理部21は、画像情報に基づいて、搭乗者が着席する前の状態としてチャイルドシートまたそれに類するものの有無を判定しその結果を出力する(ステップS6)。チャイルドシートの有無は相関処理部26に通知される(ステップS11)。   In parallel, the in-vehicle camera 32 also continuously captures images in the vehicle after activation (step S4). Image data photographed by the in-vehicle camera 32 is processed by the image processing unit 21 to generate image information. Based on the image information, the image processing unit 21 determines whether there is a child seat or the like as a state before the passenger is seated, and outputs the result (step S6). The presence or absence of the child seat is notified to the correlation processing unit 26 (step S11).

次に、車両のドアが開けられると(ステップS7)ドア開閉センサ34が反応し(ステップS8)、ドア開閉感知処理部23はドアの開状態を相関処理部26に出力する(ステップS9)。   Next, when the vehicle door is opened (step S7), the door open / close sensor 34 reacts (step S8), and the door open / close detection processing unit 23 outputs the door open state to the correlation processing unit 26 (step S9).

相関処理部26は、ドア開閉感知処理部23からドアの開状態の通知を受けると、画像処理部21からの搭乗者の有無及び年齢推定結果を確認する。車外カメラ31と車内カメラ32とを連携させ、搭乗する人物の動画を車外カメラ31と車内カメラ32とで追跡撮影してもよい。そして相関処理部26は、開状態となったドア近傍の座席について、当該座席に対する搭乗者の有無を判定し、搭乗者の年齢を推定する(ステップS10)。   When the correlation processing unit 26 receives the notification of the door open state from the door opening / closing detection processing unit 23, the correlation processing unit 26 confirms the presence / absence of the passenger and the age estimation result from the image processing unit 21. The in-vehicle camera 31 and the in-vehicle camera 32 may be linked, and a moving image of a person boarding may be tracked and photographed by the out-of-vehicle camera 31 and the in-vehicle camera 32. And the correlation process part 26 determines the presence or absence of the passenger with respect to the said seat about the seat of the door vicinity which became the open state, and estimates a passenger's age (step S10).

続いて、ドアが閉められるとドア開閉センサ34が反応し、ドア開閉感知処理部23は、ドアの閉状態を検知して(ステップS12)そのことを相関処理部26に通知する(ステップS21)。   Subsequently, when the door is closed, the door opening / closing sensor 34 reacts, and the door opening / closing detection processing unit 23 detects the closed state of the door (step S12) and notifies the correlation processing unit 26 of this (step S21). .

相関処理部26は、ドア開閉感知処理部23からのドアの閉状態の通知から一定時間の経過後、または、搭乗者の運転席への着席を車内カメラ32で検知した時点、または、車外カメラ31に他の搭乗者候補が観測されなくなった時点で、それぞれの座席への搭乗者の有無及び年齢推定を確定する(ステップS22)。確定した搭乗者の属性は、運転モード選択処理部28に通知される。   The correlation processing unit 26 detects that the in-vehicle camera 32 detects the seating of the passenger in the driver's seat after a predetermined time has elapsed from the notification of the door closed state from the door opening / closing detection processing unit 23, or the camera outside the vehicle. When no other occupant candidates are observed in 31, the presence / absence of passengers in each seat and the age estimation are determined (step S <b> 22). The confirmed attribute of the passenger is notified to the operation mode selection processing unit 28.

そうすると運転モード選択処理部28は、搭乗者の属性に基づいて車両の運転モードを選択し、その内容を表示器40およびスピーカ50を介してユーザに報知して搭乗者の選択を促す(ステップS23)。搭乗者により運転モードが指定されると(ステップS24)、運転モード選択処理部28は、選択の結果を自動運転システム10に通知する(ステップS25)。   Then, the driving mode selection processing unit 28 selects the driving mode of the vehicle based on the rider's attributes, informs the user of the content via the display 40 and the speaker 50, and prompts the passenger to select (step S23). ). When the driving mode is designated by the passenger (step S24), the driving mode selection processing unit 28 notifies the selection result to the automatic driving system 10 (step S25).

図6は、図1の各センサの検知結果と搭乗者の属性の推定結果との相関を時系列で示す図である。図6は、車両の左後方ドアにおける処理について示す。すなわち、搭乗者の属性はドア単位で推定することができる。   FIG. 6 is a diagram showing the correlation between the detection result of each sensor of FIG. 1 and the estimation result of the passenger attribute in time series. FIG. 6 shows processing at the left rear door of the vehicle. That is, the attribute of the passenger can be estimated on a door basis.

図6(a)に示されるように、例えばドアロック解除、車外カメラ(左)、ドア開(左後)、車内カメラ(左後方視野)、全ドア閉の5個の判断項目があるとする(#0〜#4)。最初にドアロック解除が検知されると(▽)、車外カメラおよび車内カメラが起動し、左後方ドア近傍に搭乗者が検知されたとする(○)。そうすると図6(b)に示されるように、車外カメラの画像データから歩行補助具の有無が判定され、車内カメラの画像データからチャイルドシートの有無が判定される。   As shown in FIG. 6 (a), for example, there are five judgment items: door lock release, exterior camera (left), door open (rear left), in-vehicle camera (left rear view), and all doors closed. (# 0 to # 4). When the door lock release is detected for the first time ()), it is assumed that the outside camera and the in-vehicle camera are activated and a passenger is detected in the vicinity of the left rear door (◯). Then, as shown in FIG. 6B, the presence / absence of a walking aid is determined from the image data of the outside camera, and the presence / absence of the child seat is determined from the image data of the in-vehicle camera.

図6(a)で時間が経過し、左後ろのドアが開くと(▽)図6(b)において搭乗者の有無および搭乗者の年齢が推定される。さらに図6(a)で時間が経過し全てのドアが閉まると(全ドア閉(▽))、左後方のシートに関して、搭乗者の有無と年齢、およびチャイルドシートの有無が判定される。   When time elapses in FIG. 6A and the left rear door is opened (▽), the presence / absence of the passenger and the age of the passenger are estimated in FIG. 6B. Further, when time elapses in FIG. 6A and all doors are closed (all doors closed (▽)), the presence / absence and age of the passenger and the presence / absence of the child seat are determined for the left rear seat.

人が車両に搭乗する際の手順は、例えば以下(1)〜(5)のように分解することができる。
(1)車両に接近し、ドアの前に移動する。(2)車両のドアを開ける。(3)車両に搭乗し、着席する。(4)車両のドアを閉める。(5)車両の運転を開始する。
The procedure when a person gets on the vehicle can be disassembled as (1) to (5) below, for example.
(1) Approach the vehicle and move in front of the door. (2) Open the vehicle door. (3) Board the vehicle and take a seat. (4) Close the vehicle door. (5) Start driving the vehicle.

このとき、搭乗者が車いす、松葉づえ等の歩行補助具を用いている場合は、車外カメラ31において特徴的な画像及び移動パターンが観測される。また、ドアを開けた後に歩行補助具を外す行為が観測されることになる。   At this time, when the passenger uses a walking aid such as a wheelchair or a crutch, a characteristic image and a movement pattern are observed in the outside camera 31. In addition, the act of removing the walking aid after opening the door will be observed.

一方、子供の搭乗者が居る場合には、車両接近時及びドア前において、撮影した画像から身長による判断が可能である。さらに、車内カメラ32で撮影された画像にベビーシート、チャイルドシート等の着席補助具が確認された場合は、乳幼児が搭乗者に含まれるものと判断可能である。さらには同様の判断により、ペットの同乗についても判断可能となる。   On the other hand, when there is a child passenger, it is possible to make a judgment based on the height from the photographed image when approaching the vehicle and in front of the door. Furthermore, when a seating aid such as a baby seat or a child seat is confirmed in the image taken by the in-vehicle camera 32, it can be determined that the infant is included in the passenger. Furthermore, it is possible to determine pet riding with the same determination.

各ドアごとに判定される属性情報は、例えば次の表に示される項目を含む。   The attribute information determined for each door includes items shown in the following table, for example.

ドア開閉感知処理部23から全てのドアが閉状態となったことを通知されると、相関処理部26は表1に示される属性情報を、ドアごとに生成する。例えばドアロック解除センサ33の検知結果から、搭乗者の有無といった小項目を推定することができる。搭乗者ありを1とすると、無しは0として定義される。車外カメラの画像データからは年齢、歩行補助具の有無を推定できる。車内カメラの画像データからは年齢、チャイルドシートの有無を推定できる。マイクからの音声を解析すれば年齢を推定することもできる。   When the door opening / closing detection processing unit 23 notifies that all the doors are closed, the correlation processing unit 26 generates the attribute information shown in Table 1 for each door. For example, a small item such as the presence or absence of a passenger can be estimated from the detection result of the door lock release sensor 33. If the passenger presence is 1, the absence is defined as 0. The age and the presence / absence of a walking aid can be estimated from the image data of the camera outside the vehicle. From the image data of the in-vehicle camera, it is possible to estimate the age and the presence or absence of a child seat. The age can also be estimated by analyzing the sound from the microphone.

表1の備考欄に示される数値(0/1)を用いて属性判定値Vmを計算することができる。   The attribute determination value Vm can be calculated using the numerical value (0/1) shown in the remarks column of Table 1.

例えば、杖等の歩行補助具を持たない大人が車両に接近したことを考える。この場合、車外カメラ31からの画像情報をもとに画像処理部21は、接近する人物が大人であることをその身長から判定する。その結果、年齢推定の値として0が生成され、歩行補助具なしとして0が生成される。車内カメラ32からの画像情報からもその人物が大人であることが判定され、年齢推定値として0を生成する。相関処理部26は、シート上にチャイルドシートが無ければ、値として0を生成する。   For example, consider that an adult without a walking aid such as a walking stick approaches the vehicle. In this case, based on the image information from the camera 31 outside the vehicle, the image processing unit 21 determines from the height that the approaching person is an adult. As a result, 0 is generated as the age estimation value, and 0 is generated without the walking aid. It is determined from the image information from the in-vehicle camera 32 that the person is an adult, and 0 is generated as an age estimated value. The correlation processing unit 26 generates 0 as a value if there is no child seat on the seat.

並行して、マイク36からの音声データ入力をもとに音声処理部25は、個別の発話者の弁別を行い、年齢推定を実施する。ここで搭乗者が大人と判定されれば属性情報の値として0を生成する。   In parallel, the voice processing unit 25 discriminates individual speakers based on voice data input from the microphone 36, and performs age estimation. Here, if the passenger is determined to be an adult, 0 is generated as the value of the attribute information.

また、ドアが閉まった時点で当該ドアからの搭乗者の有無が判定され、搭乗者ありとして判定値1が生成される。以上の過程の結果として、表1の項目1=1、項目2〜6=0となり、属性判定値Vmとして0が得られる。   Further, when the door is closed, the presence / absence of a passenger from the door is determined, and a determination value 1 is generated as the presence of a passenger. As a result of the above process, item 1 = 1 and items 2 to 6 = 0 in Table 1 are obtained, and 0 is obtained as the attribute determination value Vm.

別のケースとして、松葉づえを用いた搭乗者が接近してきたとする。この場合、車外カメラ31からの画像データにより松葉づえが検出され、表1の項目3として、判定値1が生成される。項目3以外の各項目は、大人が接近した場合と同じ判定値が生成され、このケースで算出される属性判定値Vmは、1となる。   In another case, suppose that a passenger using Matsubae approaches. In this case, a crutch is detected from the image data from the camera 31 outside the vehicle, and a determination value 1 is generated as item 3 in Table 1. Each item other than item 3 generates the same determination value as when an adult approaches, and the attribute determination value Vm calculated in this case is 1.

更に、別のケースとして、子供の搭乗者が存在する場合を考える。この場合は、表1の項目2、項目4、項目6において、1が生成され、属性判定値Vmとして3が生成される。   Further, as another case, consider a case where there is a child passenger. In this case, in item 2, item 4, and item 6 of Table 1, 1 is generated, and 3 is generated as the attribute determination value Vm.

属性判定値Vmは、相関処理部26から運転モード選択処理部28に通知される。属性判定値Vmが0でない場合には(Vm>0)、運転モード選択処理部28は、子供及び怪我人等向けの“やさしい運転”モードの利用が推奨される状況であることを判断する。そうすると運転モード選択処理部28は、例えば図7または図8に示されるようなメッセージを表示器40に表示する。   The attribute determination value Vm is notified from the correlation processing unit 26 to the operation mode selection processing unit 28. When the attribute determination value Vm is not 0 (Vm> 0), the operation mode selection processing unit 28 determines that it is recommended to use the “friendly operation” mode for children and injured persons. Then, the operation mode selection processing unit 28 displays a message as shown in FIG. 7 or FIG.

図7は、搭乗者に負担の少ない運転が可能であることを通知するメッセージの一例を示し、この画面から「はい」か「いいえ」かの選択を促す。音声によりスピーカ50を通じて、同内容を搭乗者に通知してもよい。図8においても、(やさしい運転)または(通常の運転)のいずれかを選択できるようになっている。   FIG. 7 shows an example of a message notifying the passenger that driving with less burden is possible, and prompts the user to select “Yes” or “No” from this screen. The passenger may be notified of the same content through the speaker 50 by voice. In FIG. 8, either (friendly operation) or (normal operation) can be selected.

搭乗者が図7の画面から「はい」を選択すると、相関処理部26が自動運転システム10に対して、搭乗者の負担の少なくなる運転となる車両制御及びルート選定を指示する。つまり、(優しい運転モード)に応じた最適な車両制御パラメータの組み合わせ候補が自動運転システム10に通知される。
次に、本実施形態に係る実施例を幾つか説明する。
When the passenger selects “Yes” from the screen of FIG. 7, the correlation processing unit 26 instructs the automatic driving system 10 to perform vehicle control and route selection for driving that reduces the burden on the passenger. That is, the automatic driving system 10 is notified of the optimal combination of vehicle control parameters corresponding to the (friendly driving mode).
Next, some examples according to this embodiment will be described.

[第1の実施例]
自動運転機能または自動運転支援機能付きの車両を用いたレンタカー/カーシェアリングを想定した実施例について説明する。
[First embodiment]
An embodiment assuming a rental car / car sharing using a vehicle with an automatic driving function or an automatic driving support function will be described.

搭乗者が、ドアロックを解除した時点で、本発明のシステムは稼働を開始し、ECU20は搭乗者の属性の収集を開始する。搭乗者にけが人等を含まないと判定した場合は、車両側からは特段の提示はせず、搭乗者の操作/指示がない限りは、通常運転モードとして、車両制御をする。   When the passenger releases the door lock, the system of the present invention starts operation, and the ECU 20 starts collecting the attributes of the passenger. When it is determined that the passenger does not include an injured person or the like, no special presentation is made from the vehicle side, and the vehicle is controlled as the normal operation mode unless there is an operation / instruction of the passenger.

松葉づえ、車いす、杖等の歩行補助具を利用した搭乗者がいると推定された場合は、通常よりも小さな加減速率となるように、あるいは横向き加速度を抑えた車線変更制御とする等の自動運転、または運転支援を行う。加えて、目的地までのルート選定においても、時間優先でなく、例えば信号による停車の少ない経路、交通量の少ない経路、または曲がり角の少ない経路を選択し、提示する。   When it is estimated that there are passengers using walking aids such as crutches, wheelchairs, canes, etc., automatic driving such as lane change control with a lower acceleration rate or lower lateral acceleration, etc. Or provide driving assistance. In addition, the route to the destination is not time-prioritized, and for example, a route with a small stop by a signal, a route with a small traffic volume, or a route with a small turn is selected and presented.

また、歩行補助具を利用した搭乗者がいると推定された場合は、搭乗時に、歩行補助具収納のため、搭乗者に音声等によるロック解除の応答確認を実施し、トランクまたは後部ドアのロック解除を行ってもよい。   Also, if it is estimated that there is a passenger using a walking aid, the passenger will be asked to confirm the unlocking response by voice, etc. to lock the trunk or the rear door when storing the walking aid. You may cancel.

子供の搭乗者がいると推定された場合は、時間優先としたルート選定を行う。そして上記と同様の運転支援を行うことにより、子供が愚図らぬように乗車時間を短くしつつ、車内で安全に過ごせるように配慮した自動運転、または運転支援を提示する。   When it is estimated that there is a child passenger, route selection is performed with time priority. Then, by providing driving assistance similar to the above, automatic driving or driving assistance is presented so that the child can be safely spent in the car while shortening the boarding time so as not to fool.

上記により、運転者は不慣れな車両において、搭乗者に最適な運転状態の提示を受け、複雑な操作を実施せず、容易に、搭乗者に安全で快適な運転を実現することが可能となる。例えばけが人といった搭乗者の状態によっては、通常とは異なり、時間がかかってもよく、加減速の割合を抑え、横方向の揺れなどについても最小限に抑えることが、搭乗者の快適さ及び安全面確保に重要となる。   As a result, in a vehicle unfamiliar with the driver, the driver can be presented with an optimal driving state and can easily perform a safe and comfortable driving for the passenger without performing complicated operations. . For example, depending on the condition of the passenger, such as an injured person, it may take longer than usual, reducing the acceleration / deceleration rate and minimizing lateral shaking, etc. It is important to secure the surface.

近年の車両に搭載されるシステムは、より高度で複雑化するようになってきている。特に、日常使用していない不慣れな車両においては、車両搭載システムの操作は搭乗者にとって困難なものとなっている。その対策のため、車両側に画面表示、あるいは音声出力を用いて、車両に備わる機能の選択肢を搭乗者に提示し、搭乗者に選択を促す、または搭乗者の怪我の有無への質問/希望する内容を確認し、それに合わせて車両の設定を制御する方法が考えられる。   Systems mounted on vehicles in recent years have become more sophisticated and complex. In particular, in an unfamiliar vehicle that is not used everyday, it is difficult for the passenger to operate the vehicle-mounted system. As a countermeasure, use a screen display or audio output on the vehicle side to present to the passenger the choices of the functions provided in the vehicle, prompt the passenger to make a choice, or ask / desir whether the passenger is injured. A method for confirming the contents to be controlled and controlling the vehicle settings accordingly can be considered.

しかしながら、選択肢の提示/各種質問に対して回答を行うことは、搭乗から出発までに時間を要する結果を招きやすい。さらには、質問への誤回答発生などにより搭乗者に対してストレスを生じさせる。   However, presenting options / replying various questions tends to result in time consuming from boarding to departure. Furthermore, the passenger is stressed due to the occurrence of an erroneous answer to the question.

これに対し実施形態では、車外カメラ31を活用し、車両外の搭乗者、つまり搭乗する前の状態を確認し、車内カメラ32やマイク36などのセンサシステムにより、搭乗者の属性を確認するようにした。そして、その結果に基づいて推奨可能な運転モードを選択し、最適な車両制御パラメータの組み合わせ候補を抽出して搭乗者に提示する。そして、搭乗者の意思に基づく選択の結果を車両の制御に反映させるようにした。これにより全ての搭乗者に快適さを提供する車両システムを実現することが可能になる。   On the other hand, in the embodiment, the vehicle outside camera 31 is used to check the passenger outside the vehicle, that is, the state before boarding, and the attributes of the passenger are checked by the sensor system such as the vehicle camera 32 and the microphone 36. I made it. Based on the result, a recommended driving mode is selected, and optimal vehicle control parameter combination candidates are extracted and presented to the passenger. Then, the result of selection based on the intention of the passenger is reflected in the control of the vehicle. This makes it possible to realize a vehicle system that provides comfort to all passengers.

また、カーシェアリング/レンタカーのような一時的な利用環境においても、搭乗者の属性を取得し、属性を反映したメニューの中から最適なものを提案することで、最小限の質疑応答で最適な運転モードを決定できるようになる。従って、車種ごとに異なる、より高度化、複雑化する車両の制御システムにおいて専門家でなくとも、容易に活用できるシステムを手段を提供する。   Even in a temporary use environment such as car sharing / rental car, it is possible to obtain the best attributes from the menu that reflects the attributes by obtaining the attributes of the passengers. The operation mode can be determined. Therefore, the present invention provides means for a system that can be easily used even by non-experts in a vehicle control system that is different for each vehicle type and that is more sophisticated and complicated.

[第2の実施例]
例えば、自動運転のタクシーにも上記実施の形態を適用することができる。自動運転のタクシーの業務遂行中は、当該タクシーに備えられたECU20を常時稼働状態としておくとよい。
車外カメラ31により、搭乗者と推定される人物を発見し、その属性を収集する。当該の搭乗者が接近して、車内に登場した際に、収集済みの属性から、搭乗者にけが人等の有無を判断し、第1の実施例と同様のメッセージを乗客に提示するようにする。
[Second Embodiment]
For example, the above-described embodiment can be applied to a taxi for automatic driving. During the operation of the taxi for automatic driving, the ECU 20 provided in the taxi may be kept in an operating state at all times.
A person estimated to be a passenger is discovered by the camera 31 outside the vehicle, and its attributes are collected. When the passenger is approaching and appears in the car, it is determined from the collected attributes whether the passenger is injured or the like, and the same message as in the first embodiment is presented to the passenger. .

このようにすることで、自動運転のタクシーにおいて、搭乗者への質疑応答の確認等を不要とすることができる。また、搭乗者に対して最適な運転状態を提示することができ、乗車から速やかな発進と、搭乗者に安全で快適な運転を実現することが可能となる。   By doing in this way, in the taxi of an automatic driving | operation, confirmation of the question and answer to a passenger etc. can be made unnecessary. In addition, the optimum driving state can be presented to the passenger, and it is possible to quickly start from the boarding and to realize safe and comfortable driving for the passenger.

実施形態に係る技術を適用しない場合、自動運転のタクシーで搭乗者の状態に合わせた運転を実施するためには、システムの特質上、搭乗者への事細かな質疑応答が必要になる。また、車両の判断機能、または遠隔のオペレータの判断により、運転モードを制御する必要がある。この仕組みは、搭乗者が車両に搭乗してから利用することになり、発進までに時間を要する作業となる。   When the technology according to the embodiment is not applied, a detailed question and answer to the passenger is necessary due to the nature of the system in order to perform driving in accordance with the passenger's condition in the automatic driving taxi. Further, it is necessary to control the operation mode based on a vehicle determination function or a remote operator's determination. This mechanism is used after the passenger gets on the vehicle, and takes time to start.

これに対し実施形態によれば、搭乗者は提示されたメッセージから自分の望む運転モードを選択するだけで良いので、速やかな発進と、快適な運転とを享受することができる。   On the other hand, according to the embodiment, since the passenger only has to select the driving mode he desires from the presented message, the passenger can enjoy quick start and comfortable driving.

[第3の実施例]
自動運転機能または自動運転支援機能付きの車両を用いたレンタカー/カーシェアリング、あるいはタクシーのいずれにも適用可能な実施例について説明する。
[Third embodiment]
An embodiment applicable to either a rental car / car sharing using a vehicle with an automatic driving function or an automatic driving support function, or a taxi will be described.

歩行補助具として、運動能力をアシストするアクチュエータ技術を搭乗者が用いている場合、あるいは、通常は歩行補助具を使用しているにも関わらず歩行補助具を装着(利用)しない搭乗者に対しては、カメラで撮影された画像データからだけではその属性を判断することが難しい場合がある。   For passengers who use actuator technology to assist athletic ability as walking aids, or who do not wear (use) walking aids even though they normally use walking aids Therefore, it may be difficult to determine the attribute only from the image data captured by the camera.

この場合、搭乗者が利用する歩行補助具に、ビーコン発信機80を取り付ける。または、あらかじめ搭乗者の年齢や怪我の有無といった属性に合わせて異なる信号を発するビーコン発信機80を搭乗者自身が携帯する。そして、その信号を車両側で受信し、カメラからの映像と関連付けることで、搭乗者の属性を推定することができる。これにより第1の実施例、第2の実施例と同様に、搭乗者に最適な運転モードを提示し、速やかな発進と、安全で快適な運転を実現することが可能となる。   In this case, the beacon transmitter 80 is attached to the walking aid used by the passenger. Alternatively, the passenger himself / herself carries a beacon transmitter 80 that emits a different signal according to attributes such as the age of the passenger and the presence or absence of injury. Then, the attribute of the passenger can be estimated by receiving the signal on the vehicle side and associating it with the video from the camera. As a result, similar to the first embodiment and the second embodiment, it is possible to present the optimum driving mode to the occupant and to realize quick start and safe and comfortable driving.

以上述べたように実施形態によれば、車外カメラ31を積極的に利用し、人物の搭乗前からその属性推定を開始するようにしている。そして、車いす、松葉づえなどの使用の有無を判定するにも車外の映像を活用するようにしている。従って、車内カメラ32だけでは検知することの困難な詳細な属性も取得することができる。さらには、車内カメラ32だけでは困難であった搭乗者の属性も正確に取得することができ、より適切な運転モードの提案を実現することができる。   As described above, according to the embodiment, the out-of-vehicle camera 31 is actively used, and the attribute estimation is started before the person boarding. In addition, images outside the vehicle are also used to determine whether or not a wheelchair or Matsubae is used. Accordingly, it is possible to acquire detailed attributes that are difficult to detect with the in-vehicle camera 32 alone. Furthermore, it is possible to accurately acquire the attributes of the occupant, which was difficult only with the in-vehicle camera 32, and it is possible to realize a more appropriate driving mode proposal.

また実施形態によれば搭乗者は、車両に備わる機能を知らなくても、車両側から搭乗者の属性を判断し、車両に備わる機能を提案することができる。従って搭乗者に手間をかけさせず、より快適な移動手段を提供することが可能となる。   Further, according to the embodiment, the passenger can determine the attribute of the passenger from the vehicle side and propose the function provided in the vehicle without knowing the function provided in the vehicle. Therefore, it is possible to provide a more comfortable moving means without taking time and effort to the passenger.

また、ドアロックの解除された時点からセンサシステム30やECU20が起動するようにすることで、搭乗者の属性の収集を搭乗前から開始できるようになる。従って、出発可能となるまでの時間の間に適切な運転モードの提案と搭乗者による選択を可能とし、搭乗者に対してストレスのない利用環境を提供することができる。   Further, by starting the sensor system 30 and the ECU 20 from the time when the door lock is released, it becomes possible to start collecting the attributes of the passengers before boarding. Accordingly, it is possible to propose an appropriate driving mode and select by the passenger during the time until it is possible to leave, and to provide a passenger-free use environment.

これらのことから実施形態によれば、搭乗者へのサービス性を高めた運転状態制御装置および運転状態制御方法を提供することが可能となる。   Therefore, according to the embodiment, it is possible to provide a driving state control device and a driving state control method that improve serviceability for passengers.

なお、本発明は上記実施形態に限定されるものではない。例えば自動運転システムは、自動運転支援システムと読み替えることができる。また、必要な程度にまで詳細な属性情報を取得可能な性能を持つカメラがあれば、そのカメラで取得された属性情報だけに基づいて所期の処理を行っても良い。   The present invention is not limited to the above embodiment. For example, an automatic driving system can be read as an automatic driving support system. Further, if there is a camera having a performance capable of acquiring detailed attribute information as much as necessary, an intended process may be performed based only on the attribute information acquired by the camera.

上記に説明した各装置及びシステムを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。   A program for realizing each device and system described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed, thereby executing an execution process. May be. Here, the “computer system” may include an OS and hardware such as peripheral devices.

本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although an embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10…自動運転システム、20…ECU、21…画像処理部、22…ドアロック解除検知処理部、23…ドア開閉感知処理部、24…ビーコン受信処理部、25…音声処理部、26…相関処理部、27…ユーザインタフェース部、28…運転モード選択処理部、29…荷物搬入支援処理部、30…センサシステム、31…車外カメラ、32…車内カメラ、33…ドアロック解除センサ、34…ドア開閉センサ、35…ビーコン受信機、36…マイク、37…シート感圧センサ、40…表示器、50…スピーカ、60…後部ドアロック制御部、70…照明、80…ビーコン発信機。   DESCRIPTION OF SYMBOLS 10 ... Automatic driving system, 20 ... ECU, 21 ... Image processing part, 22 ... Door lock cancellation | release detection processing part, 23 ... Door opening / closing detection processing part, 24 ... Beacon reception processing part, 25 ... Voice processing part, 26 ... Correlation process 27: User interface unit, 28: Operation mode selection processing unit, 29 ... Luggage carry-in support processing unit, 30 ... Sensor system, 31 ... Outside camera, 32 ... In-vehicle camera, 33 ... Door lock release sensor, 34 ... Door open / close Sensor, 35 ... Beacon receiver, 36 ... Microphone, 37 ... Seat pressure sensor, 40 ... Display, 50 ... Speaker, 60 ... Rear door lock control unit, 70 ... Illumination, 80 ... Beacon transmitter.

Claims (14)

車両の外部を視野に含むカメラで取得された画像データを処理して、前記車両の搭乗者の前記視野における画像情報を取得する画像処理部と、
前記画像情報を用いた相関処理により、前記搭乗者の属性情報を生成する相関処理部と、
前記属性情報に基づいて、前記搭乗者のための運転モードを特定するモード処理部とを具備する、運転状態制御装置。
An image processing unit that processes image data acquired by a camera including the outside of the vehicle in a field of view, and acquires image information in the field of view of a passenger of the vehicle;
A correlation processing unit that generates attribute information of the passenger by correlation processing using the image information;
A driving state control device comprising: a mode processing unit that specifies a driving mode for the passenger based on the attribute information.
前記画像処理部は、車内を視野に含む画像センサで取得された画像データを処理して前記車内の画像情報を取得し、
前記相関処理部は、前記搭乗者の画像情報と前記車内の画像情報との相関処理により前記搭乗者の属性情報を生成する、請求項1に記載の運転状態制御装置。
The image processing unit acquires image information in the vehicle by processing image data acquired by an image sensor including the inside of the vehicle in the field of view,
The driving state control device according to claim 1, wherein the correlation processing unit generates attribute information of the passenger by correlation processing between the image information of the passenger and image information in the vehicle.
さらに、前記車両に装荷されたビーコン受信機で受信されたビーコン信号を処理してビーコン情報を取得するビーコン受信処理部を具備し、
前記相関処理部は、前記ビーコン情報を用いた前記相関処理により前記搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。
And a beacon reception processing unit for acquiring beacon information by processing a beacon signal received by a beacon receiver loaded on the vehicle,
The driving state control device according to claim 2, wherein the correlation processing unit generates attribute information of the occupant by the correlation processing using the beacon information.
さらに、前記車両に装荷されたマイクロフォンから出力される音声信号を処理して音声情報を取得する音声処理部を具備し、
前記相関処理部は、前記音声情報を用いた前記相関処理により前記搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。
And a voice processing unit that acquires voice information by processing a voice signal output from a microphone loaded on the vehicle,
The driving state control device according to claim 2, wherein the correlation processing unit generates attribute information of the occupant through the correlation processing using the voice information.
さらに、前記車両のドアロックの状態を検知するロックセンサからの検知情報を処理するドアロック解除検知処理部を具備し、
前記相関処理部は、前記ロックセンサによりドアロック解除が検知されると、前記相関処理を開始する、請求項2に記載の運転状態制御装置。
Furthermore, it comprises a door lock release detection processing unit for processing detection information from a lock sensor that detects the door lock state of the vehicle,
The operation state control device according to claim 2, wherein the correlation processing unit starts the correlation processing when door lock release is detected by the lock sensor.
さらに、前記車両のドアの開閉状態を検知するドアセンサからの検知情報を処理するドア開閉感知処理部を具備し、
前記相関処理部は、前記ドアセンサにより検知された前記ドアの開状態と閉状態の時系列の変化に基づいて、当該ドアからの搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。
And a door opening / closing detection processing unit for processing detection information from a door sensor for detecting an opening / closing state of the vehicle door,
The driving state according to claim 2, wherein the correlation processing unit generates attribute information of a passenger from the door based on a time-series change of the door open state and the closed state detected by the door sensor. Control device.
前記相関処理部は、前記車両のシート上の圧力を検知する感圧センサの感応したシートの搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。   The driving state control device according to claim 2, wherein the correlation processing unit generates attribute information of a seat occupant to which a pressure sensor that detects a pressure on a seat of the vehicle is sensitive. 前記モード処理部は、
前記属性情報に基づいて複数の運転モードを抽出し、
前記抽出された複数の運転モードをユーザインタフェースに提示し、
前記ユーザインタフェースにおいて指定された運転モードを、前記搭乗者のための運転モードとして特定する、請求項1乃至7のいずれか1項に記載の運転状態制御装置。
The mode processing unit
Extracting a plurality of operation modes based on the attribute information,
Presenting the extracted plurality of operation modes to a user interface;
The driving | running state control apparatus of any one of Claim 1 thru | or 7 which specifies the driving | running mode designated in the said user interface as a driving | operation mode for the said passenger.
前記モード処理部は、前記特定された運転モードを前記車両の自動運転システムに通知する、請求項8に記載の運転状態制御装置。   The driving state control device according to claim 8, wherein the mode processing unit notifies the specified driving mode to an automatic driving system of the vehicle. 前記モード処理部は、前記特定された運転モードを反映する車両制御パラメータの組み合わせを前記車両の自動運転システムに通知する、請求項8に記載の運転状態制御装置。   The driving state control device according to claim 8, wherein the mode processing unit notifies the vehicle automatic driving system of a combination of vehicle control parameters reflecting the identified driving mode. 前記車両制御パラメータは、加減速範囲、速度範囲、および移動経路の少なくともいずれかである、請求項10に記載の運転状態制御装置。   The driving state control device according to claim 10, wherein the vehicle control parameter is at least one of an acceleration / deceleration range, a speed range, and a movement route. 前記相関処理部は、前記搭乗者の歩行補助具の使用の有無に関する属性情報を生成する、請求項1に記載の運転状態制御装置。   The driving state control device according to claim 1, wherein the correlation processing unit generates attribute information related to whether or not the passenger's walking aid is used. 前記画像処理部は、前記車内の画像情報に基づき取得したチャイルドシートの有無に関する情報を前記相関処理部に渡し、
前記相関処理部は、前記チャイルドシートの有無に関する情報を前記相関処理に反映させて前記搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。
The image processing unit passes information on the presence or absence of a child seat acquired based on the image information in the vehicle to the correlation processing unit,
The driving state control device according to claim 2, wherein the correlation processing unit generates attribute information of the occupant by reflecting information on the presence or absence of the child seat in the correlation processing.
車両に搭載されるコンピュータに適用可能な運転状態制御方法において、
前記コンピュータが、車両の外部を視野に含むカメラで取得された画像データを処理して、前記車両の搭乗者の前記視野における画像情報を取得することと、
前記コンピュータが、前記画像情報を用いた相関処理により、前記搭乗者の属性情報を生成することと、
前記コンピュータが、前記属性情報に基づいて、前記搭乗者のための運転モードを特定することとを具備する、運転状態制御方法。
In a driving state control method applicable to a computer mounted on a vehicle,
The computer processes image data acquired by a camera including the outside of the vehicle in a field of view to acquire image information in the field of view of a passenger of the vehicle;
The computer generates attribute information of the passenger by a correlation process using the image information;
A driving state control method comprising: the computer specifying a driving mode for the occupant based on the attribute information.
JP2016243565A 2016-12-15 2016-12-15 Operating state control device and operating state control method Active JP6892258B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016243565A JP6892258B2 (en) 2016-12-15 2016-12-15 Operating state control device and operating state control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016243565A JP6892258B2 (en) 2016-12-15 2016-12-15 Operating state control device and operating state control method

Publications (2)

Publication Number Publication Date
JP2018097737A true JP2018097737A (en) 2018-06-21
JP6892258B2 JP6892258B2 (en) 2021-06-23

Family

ID=62633763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016243565A Active JP6892258B2 (en) 2016-12-15 2016-12-15 Operating state control device and operating state control method

Country Status (1)

Country Link
JP (1) JP6892258B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019038356A (en) * 2017-08-24 2019-03-14 本田技研工業株式会社 Vehicle control device
WO2020004375A1 (en) * 2018-06-29 2020-01-02 ソニー株式会社 Information processing device and information processing method
CN110962861A (en) * 2018-09-28 2020-04-07 株式会社斯巴鲁 Vehicle control device and storage medium
JP2020086801A (en) * 2018-11-22 2020-06-04 三菱電機株式会社 Automatic driving control device and automatic driving control method
JP2020093700A (en) * 2018-12-13 2020-06-18 トヨタ自動車株式会社 Vehicle and passenger transport system
JP2020140381A (en) * 2019-02-27 2020-09-03 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
JP2020164067A (en) * 2019-03-29 2020-10-08 5Kサポート株式会社 Dashboard camera installation method, dashboard camera, and automobile
CN112208522A (en) * 2019-07-12 2021-01-12 株式会社电装 Apparatus and method for controlling driving of vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008243015A (en) * 2007-03-28 2008-10-09 Denso Corp Driving support device
JP2010111292A (en) * 2008-11-06 2010-05-20 Panasonic Electric Works Co Ltd Vehicular control device
JP2013252863A (en) * 2013-09-27 2013-12-19 Takata Corp Occupant restriction control device and occupant restriction control method
JP2015120573A (en) * 2013-12-24 2015-07-02 株式会社日立製作所 Elevator with image recognition function
JP2015191264A (en) * 2014-03-27 2015-11-02 株式会社ニコン Autonomous driving vehicle
JP2016062414A (en) * 2014-09-19 2016-04-25 クラリオン株式会社 In-vehicle monitoring device and in-vehicle monitoring system
WO2016121174A1 (en) * 2015-01-30 2016-08-04 ソニー株式会社 Information processing system and control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008243015A (en) * 2007-03-28 2008-10-09 Denso Corp Driving support device
JP2010111292A (en) * 2008-11-06 2010-05-20 Panasonic Electric Works Co Ltd Vehicular control device
JP2013252863A (en) * 2013-09-27 2013-12-19 Takata Corp Occupant restriction control device and occupant restriction control method
JP2015120573A (en) * 2013-12-24 2015-07-02 株式会社日立製作所 Elevator with image recognition function
JP2015191264A (en) * 2014-03-27 2015-11-02 株式会社ニコン Autonomous driving vehicle
JP2016062414A (en) * 2014-09-19 2016-04-25 クラリオン株式会社 In-vehicle monitoring device and in-vehicle monitoring system
WO2016121174A1 (en) * 2015-01-30 2016-08-04 ソニー株式会社 Information processing system and control method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019038356A (en) * 2017-08-24 2019-03-14 本田技研工業株式会社 Vehicle control device
WO2020004375A1 (en) * 2018-06-29 2020-01-02 ソニー株式会社 Information processing device and information processing method
JP7331850B2 (en) 2018-06-29 2023-08-23 ソニーグループ株式会社 Information processing device and information processing method
CN110962861A (en) * 2018-09-28 2020-04-07 株式会社斯巴鲁 Vehicle control device and storage medium
JP2020086801A (en) * 2018-11-22 2020-06-04 三菱電機株式会社 Automatic driving control device and automatic driving control method
JP7155985B2 (en) 2018-12-13 2022-10-19 トヨタ自動車株式会社 Vehicle and passenger transportation system
JP2020093700A (en) * 2018-12-13 2020-06-18 トヨタ自動車株式会社 Vehicle and passenger transport system
US11577751B2 (en) 2018-12-13 2023-02-14 Toyota Jidosha Kabushiki Kaisha Control device for vehicle and occupant transportation system
CN111619565A (en) * 2019-02-27 2020-09-04 本田技研工业株式会社 Vehicle control system, vehicle control method, and medium
US11220270B2 (en) 2019-02-27 2022-01-11 Honda Motor Co., Ltd. Control system of vehicle, control method of the same, and non-transitory computer-readable storage medium
JP2020140381A (en) * 2019-02-27 2020-09-03 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
JP2020164067A (en) * 2019-03-29 2020-10-08 5Kサポート株式会社 Dashboard camera installation method, dashboard camera, and automobile
JP2021015459A (en) * 2019-07-12 2021-02-12 株式会社デンソー Vehicle control device, vehicle control method, and program
JP7140067B2 (en) 2019-07-12 2022-09-21 株式会社デンソー VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
CN112208522A (en) * 2019-07-12 2021-01-12 株式会社电装 Apparatus and method for controlling driving of vehicle

Also Published As

Publication number Publication date
JP6892258B2 (en) 2021-06-23

Similar Documents

Publication Publication Date Title
JP6892258B2 (en) Operating state control device and operating state control method
CN109690609B (en) Passenger assist device, method, and program
US20170334353A1 (en) Parking Assistance System
JP5958303B2 (en) Text-to-speech device
US20190009786A1 (en) Integrated vehicle monitoring system
WO2016035268A1 (en) Travel control system for vehicle
JP6167690B2 (en) Vehicle interior monitoring device
JP2006338535A (en) Method and device for preventing things from being left behind in car
US9508246B2 (en) In-vehicle charging device, automobile and charging system
JP2010128920A (en) Safety device for vehicle
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
CN111469857A (en) System and method for preventing unwanted drive-off of an autonomous vehicle
WO2016181395A1 (en) System and method for determining whether objects have been left in unattended vehicles
JP2021066275A (en) Vehicle control device
US11485383B2 (en) System and method for detecting and mitigating an unsafe condition in a vehicle
JP2020116999A (en) Control apparatus for vehicle
JP2007015502A (en) Information output device
JP2008221989A (en) Monitor device and program
JP2015128915A (en) Rear seat occupant monitor system, and rear seat occupant monitor method
JP2020111896A (en) Vehicle door control device
JP2019114267A (en) Autonomous driving vehicle
JP2010214990A (en) Vehicular control device, vehicular control method, and vehicular control program
JP2011164665A (en) Vehicle surrounding change detection device
JP2020045065A (en) Automatic operation method and vehicle
JP2022185633A (en) Partition device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210527

R150 Certificate of patent or registration of utility model

Ref document number: 6892258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350