JP6892258B2 - Operating state control device and operating state control method - Google Patents

Operating state control device and operating state control method Download PDF

Info

Publication number
JP6892258B2
JP6892258B2 JP2016243565A JP2016243565A JP6892258B2 JP 6892258 B2 JP6892258 B2 JP 6892258B2 JP 2016243565 A JP2016243565 A JP 2016243565A JP 2016243565 A JP2016243565 A JP 2016243565A JP 6892258 B2 JP6892258 B2 JP 6892258B2
Authority
JP
Japan
Prior art keywords
processing unit
vehicle
passenger
information
correlation processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016243565A
Other languages
Japanese (ja)
Other versions
JP2018097737A (en
Inventor
正治 明井
正治 明井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016243565A priority Critical patent/JP6892258B2/en
Publication of JP2018097737A publication Critical patent/JP2018097737A/en
Application granted granted Critical
Publication of JP6892258B2 publication Critical patent/JP6892258B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明の実施形態は、運転状態制御装置および運転状態制御方法に関する。 Embodiments of the present invention relate to an operating state control device and an operating state control method.

例えば非特許文献1、2に開示されるように、カメラで撮影された画像内の人物を検出する技術が知られている。特許文献1には、車椅子に乗った人物を検出する技術も開示されている。近年ではこのように画像処理技術の発達が著しく、人物はもちろん、その状態や属性、所有物などの情報を画像から取得できるようになってきている。 For example, as disclosed in Non-Patent Documents 1 and 2, a technique for detecting a person in an image taken by a camera is known. Patent Document 1 also discloses a technique for detecting a person in a wheelchair. In recent years, the development of image processing technology has been remarkable in this way, and it has become possible to acquire information such as the state, attributes, and possessions of a person as well as a person from an image.

この種の技術を車両の安全運転に応用することが期待されており、例えば特許文献2〜4に示されるような技術や、非特許文献3のような基準が開示されている。非特許文献4には車載カメラを利用して夜間の運転をサポートする技術も紹介されている。 It is expected that this kind of technology is applied to safe driving of a vehicle, and for example, the technology shown in Patent Documents 2 to 4 and the standard such as Non-Patent Document 3 are disclosed. Non-Patent Document 4 also introduces a technique for supporting driving at night by using an in-vehicle camera.

米国特許第7043084号明細書U.S. Pat. No. 7043084 国際公開第2016/121174号パンフレットInternational Publication No. 2016/121174 Pamphlet 特開2015−133050号公報JP-A-2015-133050 国際公開第2014/054153号パンフレットInternational Publication No. 2014/054153 Pamphlet

渡辺 友樹 著、「新しい特徴量を用いた高精度人物検出技術」、東芝レビュー Vol.65 No.4 (2010)、p72〜73Tomoki Watanabe, "High-precision person detection technology using new features", Toshiba Review Vol. 65 No. 4 (2010), p72-73 ファン クォク ヴェト 著、「カメラの視界から一時的に隠れても追跡可能な人物追跡技術」、東芝レビュー Vol.70 No.6 (2015)、p56〜57"Person tracking technology that can track people even if they are temporarily hidden from the camera's field of view" by Van Quocveto, Toshiba Review Vol. 70 No. 6 (2015), p56-57 国土交通省、自動車局 報道発表資料“バックミラー等に代わる「カメラモニタリングシステム」の基準を整備します。” ,[online],[平成28年11月30日検索],インターネット,<URL:http://www.mlit.go.jp/report/press/jidosha07_hh_000211.html>Ministry of Land, Infrastructure, Transport and Tourism, Automobile Bureau press release material "We will establish standards for a" camera monitoring system "instead of rear-view mirrors, etc." ”, [Online], [Searched on November 30, 2016], Internet, <URL: http://www.mlit.go.jp/report/press/jidosha07_hh_000211.html> “トヨタ | 安全技術 | ナイトビュー”,[online],[平成28年11月30日検索],インターネット,<URL:http://www.toyota.co.jp/jpn/tech/safety/technology/technology_file/active/night_view.html>"Toyota | Safety Technology | Night View", [online], [Search on November 30, 2016], Internet, <URL: http://www.toyota.co.jp/jpn/tech/safety/technology/ technology_file / active / night_view.html> “通信自由化以降の通信政策の評価とICT社会の未来像等に関する調査研究”,[online],[平成28年11月30日検索],インターネット,<URL:http://www.soumu.go.jp/johotsusintokei/linkdata/h27_01_houkoku.pdf>"Evaluation of communication policy after communication liberalization and research on future image of ICT society", [online], [Search on November 30, 2016], Internet, <URL: http: //www.soumu. go.jp/johotsusintokei/linkdata/h27_01_houkoku.pdf>

上記したように近年、車両の運転を画像認識技術によりサポートする技術が進展してきているが、いずれも安全運転の支援を第一義とするものであって搭乗者の快適性やホスピタリティを向上させることに注目した技術は少ない。例えば、画像認識により得られた知見をいわゆる“自動運転”の分野にまで適用可能とする技術は、発展の途上にある。 As mentioned above, in recent years, the technology to support the driving of the vehicle by the image recognition technology has been advanced, but in each case, the support of safe driving is the first priority, and the comfort and hospitality of the passengers are improved. There are few technologies that pay particular attention to it. For example, a technology that makes it possible to apply the knowledge obtained by image recognition to the field of so-called "autonomous driving" is in the process of development.

自動運転技術、あるいは自動運転支援技術を応用した車両を、近い将来、市場に提供する計画がある。またそれに伴って、自動運転システムを搭載したカーシェアリングやレンタカーなどのサービスも開始されるであろう。しかしながらこの種のサービスの提供にあたり、搭乗者(運転者を含んでもよい)の属性を運転に反映させることのできる技術は知られていない。 There are plans to provide vehicles that apply autonomous driving technology or autonomous driving support technology to the market in the near future. Along with that, services such as car sharing and rental cars equipped with an automatic driving system will be started. However, in providing this kind of service, there is no known technology that can reflect the attributes of passengers (which may include the driver) in driving.

例えばカーシェアリング/レンタカーでは、運転者の望む車両を固定的に継続利用することはできない。良くても車種を指定できるくらいで、それも確実ではない。専用車両を使えないこのような環境下で例えばルート選定、加減速に関する注意喚起、あるいは車線変更といった自動運転機能を利用するには、安全面だけでなく、搭乗者への配慮がより重要な意味を持ってくる。さらに、非特許文献5に記載されるような、歩行補助具として近い将来現れるであろう、運動能力をアシストできるアクチュエータ技術(パワードスーツなど)を搭乗者が用いているケースにも対応できるようにする必要がある。 For example, in car sharing / rental car, it is not possible to continuously use the vehicle desired by the driver. At best, you can specify the car model, which is not certain. In such an environment where a dedicated vehicle cannot be used, in order to use automatic driving functions such as route selection, alerting regarding acceleration / deceleration, or changing lanes, it is more important to consider not only safety but also passengers. Bring Furthermore, it will be possible to handle cases where passengers are using actuator technology (powered suits, etc.) that can assist athletic ability, which will appear as a walking aid in the near future, as described in Non-Patent Document 5. There is a need to.

この発明は上記事情に鑑みてなされたものであり、その目的は、搭乗者へのサービス性を高めた運転状態制御装置および運転状態制御方法を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an operating state control device and an operating state control method with enhanced serviceability to passengers.

実施形態によれば、運転状態制御装置は、画像処理部と、相関処理部と、モード処理部とを備える。画像処理部は、車両の外部を視野に含むカメラで取得された画像データを処理して、車両の搭乗者の視野における画像情報を取得する。相関処理部は、画像情報を用いた相関処理により、搭乗者の属性情報を生成する。モード処理部は、属性情報に基づいて、搭乗者のための運転モードを特定する。 According to the embodiment, the operation state control device includes an image processing unit, a correlation processing unit, and a mode processing unit. The image processing unit processes the image data acquired by the camera including the outside of the vehicle in the field of view, and acquires the image information in the field of view of the passenger of the vehicle. The correlation processing unit generates the attribute information of the passenger by the correlation processing using the image information. The mode processing unit identifies the driving mode for the passenger based on the attribute information.

図1は、実施形態に係る運転状態制御装置の一例を示す機能ブロック図である。FIG. 1 is a functional block diagram showing an example of an operation state control device according to an embodiment. 図2は、車外カメラ31、車内カメラ32の設置例を示す図である。FIG. 2 is a diagram showing an installation example of the outside camera 31 and the inside camera 32. 図3は、車外カメラ31の設置例を示す図である。FIG. 3 is a diagram showing an installation example of the external camera 31. 図4は、ECU20における処理手順の一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the processing procedure in the ECU 20. 図5は、ECU20における処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of a processing procedure in the ECU 20. 図6は、図1の各センサの検知結果と搭乗者の属性の推定結果との相関を時系列で示す図である。FIG. 6 is a diagram showing the correlation between the detection result of each sensor of FIG. 1 and the estimation result of the occupant's attribute in chronological order. 図7は、表示器40に表示されるプロンプトメッセージの一例を示す図である。FIG. 7 is a diagram showing an example of a prompt message displayed on the display 40. 図8は、表示器40に表示されるプロンプトメッセージの他の例を示す図である。FIG. 8 is a diagram showing another example of the prompt message displayed on the display 40.

図1は、実施形態に係る運転状態制御装置の一例を示す機能ブロック図である。以下、図1において符号20を付したECU(electronic control unit)を、運転状態制御装置の一例として説明する。 FIG. 1 is a functional block diagram showing an example of an operation state control device according to an embodiment. Hereinafter, the ECU (electronic control unit) designated by reference numeral 20 in FIG. 1 will be described as an example of the operating state control device.

ECU20は、車両の自動運転システム10と、この車両に備えられたセンサシステム30とに接続される。他にも車両は、表示器40、スピーカ50、および照明70を備える。さらに、車両は、後部ドアのロック/アンロックを制御する後部ドアロック制御部60を備えていても良い。 The ECU 20 is connected to the automatic driving system 10 of the vehicle and the sensor system 30 provided in the vehicle. In addition, the vehicle includes a display 40, a speaker 50, and a light 70. Further, the vehicle may be provided with a rear door lock control unit 60 that controls locking / unlocking of the rear door.

表示器40は、例えば運転席と助手席との間に設置され、タッチパネル型LCD(Liquid Crystal Display)などのユーザインタフェースである。表示器40に表示されるGUI(Graphical User Interface)、あるいはスピーカ50からの音声メッセージによりユーザ(搭乗者)に種々のメッセージが与えられる。また、表示器40のGUIから与えられたユーザの指示は、ECU20を介して自動運転システム10に渡される。 The display 40 is installed between the driver's seat and the passenger seat, for example, and is a user interface such as a touch panel type LCD (Liquid Crystal Display). Various messages are given to the user (passenger) by a GUI (Graphical User Interface) displayed on the display 40 or a voice message from the speaker 50. Further, the user's instruction given from the GUI of the display 40 is passed to the automatic operation system 10 via the ECU 20.

自動運転システム10は、ECU20の対向機材として設けられ、車両の自動運転に関する制御を担う。例えば自動運転システム10は、ECU20から指定された運転モードに従って車両の運転を制御する。 The automatic driving system 10 is provided as an oncoming device of the ECU 20, and is responsible for controlling the automatic driving of the vehicle. For example, the automatic driving system 10 controls the driving of the vehicle according to the driving mode designated by the ECU 20.

センサシステム30は、車外カメラ31、車内カメラ32、ドアロック解除センサ33、ドア開閉センサ34、ビーコン受信機35、マイク36、およびシート感圧センサ37を備える。 The sensor system 30 includes an outside camera 31, an inside camera 32, a door unlock sensor 33, a door open / close sensor 34, a beacon receiver 35, a microphone 36, and a seat pressure sensitive sensor 37.

車外カメラ31は、車両の外部を視野に含むカメラであって、視野内を撮像して画像データを取得する。すなわち車外カメラ31は車両の周辺を撮影するカメラであり、少なくとも車両のドアに接近する搭乗者を撮影可能であればよい。非特許文献3に示されるカメラモニタリングシステムと車外カメラ31とを共用することも可能である。特に、照明70と連動するタイプのものであれば夜間等の暗い中であっても良好な画像を取得できるし、暗視機能を備えたカメラであってもよい。 The vehicle exterior camera 31 is a camera that includes the outside of the vehicle in the field of view, and captures the inside of the field of view to acquire image data. That is, the outside camera 31 is a camera that photographs the periphery of the vehicle, and may at least capture a passenger approaching the door of the vehicle. It is also possible to share the camera monitoring system shown in Non-Patent Document 3 with the external camera 31. In particular, if it is a type that works with the illumination 70, a good image can be acquired even in a dark place such as at night, and a camera having a night-vision function may be used.

車内カメラ32は、車両の内部(車内)を視野に含む画像センサであって、視野内を撮像して画像データを取得する。すなわち車内カメラ32は車内を撮影するカメラであって、少なくとも車内の各シートの着席状況を撮影できるものであればよい。なお車内カメラ32の個数に制限はなく、例えば小型車両の前部に設置されたカメラで後部座席の状態を撮影可能であれば、後部に別途カメラを設置する必要はない。車外カメラ31も同様である。 The in-vehicle camera 32 is an image sensor that includes the inside of the vehicle (inside the vehicle) in the field of view, and captures the inside of the field of view to acquire image data. That is, the in-vehicle camera 32 may be a camera that photographs the inside of the vehicle, and may at least capture the seating status of each seat in the vehicle. The number of in-vehicle cameras 32 is not limited. For example, if a camera installed at the front of a small vehicle can capture the state of the rear seats, it is not necessary to install a separate camera at the rear. The same applies to the external camera 31.

図2および図3は、車外カメラ31、車内カメラ32の設置例を示す図である。車外カメラ31は例えばバックミラーの位置に取り付けられてカメラモニタリングシステムと併用することができる。車内カメラ32は例えば車両の天井から車内を見下ろす位置に取り付けられる。魚眼レンズなどの広視野角のカメラを用いても良い。 2 and 3 are views showing an installation example of the outside camera 31 and the inside camera 32. The external camera 31 can be attached to, for example, the position of the rearview mirror and used in combination with the camera monitoring system. The in-vehicle camera 32 is attached, for example, at a position overlooking the inside of the vehicle from the ceiling of the vehicle. A camera with a wide viewing angle such as a fisheye lens may be used.

図1に戻って説明を続ける。ドアロック解除センサ33は、車両のドアロックの状態を検知する。ドア開閉センサ34は、車両の各ドアに設置され、それぞれのドアの開閉状態を検知する。なお車外カメラ31、車内カメラ32で撮影した画像データから各ドアの開閉状態を判定しその情報を相関処理部26に渡すことができれば、ドア開閉センサ34を省略しても良い。 The explanation will be continued by returning to FIG. The door lock release sensor 33 detects the state of the vehicle door lock. The door open / close sensor 34 is installed on each door of the vehicle and detects the open / closed state of each door. If the open / closed state of each door can be determined from the image data taken by the external camera 31 and the in-vehicle camera 32 and the information can be passed to the correlation processing unit 26, the door open / close sensor 34 may be omitted.

ビーコン受信機35は、車両に装荷されてビーコン発信機80からのビーコン信号を受信する。ビーコン発信機80は、例えば車いすや松葉づえ等の歩行補助具に取り付けることが可能で、その使用者の属性を反映する情報を含むビーコン信号を、無線送信する。実施形態においては、ビーコン発信機80は搭乗者自身が携帯するものとし、搭乗者の属性に応じて異なる信号を発信する。ビーコン発信機80としては、BLE(Bluetooth(登録商標) Low Energy)等の近距離無線型の発信機を用いることができる。 The beacon receiver 35 is loaded on the vehicle and receives the beacon signal from the beacon transmitter 80. The beacon transmitter 80 can be attached to a walking aid such as a wheelchair or crutches, and wirelessly transmits a beacon signal including information reflecting the attributes of the user. In the embodiment, the beacon transmitter 80 is carried by the passenger himself / herself, and transmits different signals according to the attributes of the passenger. As the beacon transmitter 80, a short-range wireless transmitter such as BLE (Bluetooth (registered trademark) Low Energy) can be used.

受信されたビーコン信号に基づいて歩行補助具の存在を直接、確認することができる。あるいは、ビーコン信号と車外カメラ31で検知された人物とを対応付けることで歩行補助具の有無を判定してもよい。 The presence of the walking aid can be directly confirmed based on the received beacon signal. Alternatively, the presence or absence of the walking aid may be determined by associating the beacon signal with the person detected by the camera outside the vehicle 31.

マイク36は、車両に装荷されて車内外の音声や音を捕え、音声信号を出力する。シート感圧センサ37は、車両のシートごとに設けられる圧力センサであり、検知した圧力の値に基づいてシート状の搭乗者の有無を検知する。シート上の搭乗者の有無に関する情報は相関処理部26に渡される。 The microphone 36 is loaded on the vehicle, captures voices and sounds inside and outside the vehicle, and outputs a voice signal. The seat pressure sensor 37 is a pressure sensor provided for each seat of the vehicle, and detects the presence or absence of a seat-shaped passenger based on the detected pressure value. Information regarding the presence or absence of passengers on the seat is passed to the correlation processing unit 26.

次に、ECU20は、実施形態に係る処理機能として画像処理部21、ドアロック解除検知処理部22、ドア開閉感知処理部23、ビーコン受信処理部24、音声処理部25、相関処理部26、ユーザインタフェース部27、運転モード選択処理部28、および荷物搬入支援処理部29を備える。 Next, the ECU 20 has an image processing unit 21, a door unlock detection processing unit 22, a door open / close detection processing unit 23, a beacon reception processing unit 24, a voice processing unit 25, a correlation processing unit 26, and a user as processing functions according to the embodiment. It includes an interface unit 27, an operation mode selection processing unit 28, and a luggage carry-in support processing unit 29.

画像処理部21は、車外カメラ31で取得された画像データを処理して、車両の搭乗者の主に車外における画像情報を取得する。また画像処理部21は、車内カメラ32で取得された画像データを処理して車内の画像情報を取得する。特に画像処理部21は、車内の画像情報に基づいてチャイルドシートの有無を判定し、判定の結果を相関処理部26に渡す。チャイルドシートなどの物体の有無を判定することは、既存の画像処理ライブラリ等を活用することで技術的に可能である。 The image processing unit 21 processes the image data acquired by the vehicle exterior camera 31 to acquire image information mainly outside the vehicle of the passengers of the vehicle. Further, the image processing unit 21 processes the image data acquired by the in-vehicle camera 32 to acquire the image information in the vehicle. In particular, the image processing unit 21 determines the presence or absence of a child seat based on the image information in the vehicle, and passes the result of the determination to the correlation processing unit 26. It is technically possible to determine the presence or absence of an object such as a child seat by utilizing an existing image processing library or the like.

ドアロック解除検知処理部22は、ドアロック解除センサ33からの検知情報を処理する。ドア開閉感知処理部23は、ドア開閉センサ34からの検知情報を処理する。 The door lock release detection processing unit 22 processes the detection information from the door lock release sensor 33. The door open / close detection processing unit 23 processes the detection information from the door open / close sensor 34.

ビーコン受信処理部24は、ビーコン受信機35で受信されたビーコン信号を処理してビーコン情報を取得する。このビーコン情報は相関処理部26に渡される。音声処理部25は、マイク36から出力される音声信号を処理して音声情報を取得する。 The beacon reception processing unit 24 processes the beacon signal received by the beacon receiver 35 to acquire the beacon information. This beacon information is passed to the correlation processing unit 26. The voice processing unit 25 processes the voice signal output from the microphone 36 to acquire voice information.

相関処理部26は、画像処理部21から出力される少なくとも車外を撮像して得られた画像情報を用いた相関処理により、車両の搭乗者の属性情報を生成する。相関処理とは、例えば複数のセンシングデータを統合的に処理する、センサフュージョン等の技術を応用することで当業者には容易に理解され得るであろう。 The correlation processing unit 26 generates attribute information of the occupants of the vehicle by correlation processing using at least the image information obtained by imaging the outside of the vehicle output from the image processing unit 21. Correlation processing can be easily understood by those skilled in the art by applying a technique such as sensor fusion, which processes a plurality of sensing data in an integrated manner.

搭乗者の属性情報とは、例えば年齢、性別、歩行補助具(車いす、松葉づえなど)の有無、あるいはペットを連れているかそうでないか、などを示す情報である。このほかシーンに応じて多種多様な属性情報を考えることができる。 The passenger attribute information is, for example, information indicating age, gender, presence / absence of walking aids (wheelchair, crutches, etc.), and whether or not a pet is carried. In addition, a wide variety of attribute information can be considered according to the scene.

特に、相関処理部26は、搭乗者の画像情報と車内の画像情報との相関処理により、搭乗者の属性情報を生成する。また相関処理部26は、ビーコン情報を用いた相関処理により搭乗者の属性情報を生成する。 In particular, the correlation processing unit 26 generates the attribute information of the passenger by the correlation processing between the image information of the passenger and the image information in the vehicle. Further, the correlation processing unit 26 generates the attribute information of the passenger by the correlation processing using the beacon information.

また相関処理部26は、音声情報を用いた相関処理により搭乗者の属性情報を生成することも可能である。特に、相関処理部26は、ドアロック解除が検知されると相関処理を開始するようにしても良い。 Further, the correlation processing unit 26 can also generate the attribute information of the passenger by the correlation processing using the voice information. In particular, the correlation processing unit 26 may start the correlation processing when the door lock release is detected.

また、相関処理部26は、車両のドアの開状態と閉状態の時系列の変化に基づいて各ドアから車両に乗り込んだ搭乗者ごとの属性情報を生成する。また、相関処理部26は、シート感圧センサ37の感応したシートの搭乗者の属性情報を生成する。 Further, the correlation processing unit 26 generates attribute information for each passenger who has boarded the vehicle from each door based on the time-series change of the open state and the closed state of the door of the vehicle. In addition, the correlation processing unit 26 generates attribute information of the passenger of the seat that is sensitive to the seat pressure sensor 37.

特に、相関処理部26は、搭乗者の歩行補助具の使用の有無に関する属性情報を生成する。さらに、相関処理部26は、チャイルドシートの有無に関する情報を相関処理に反映させて搭乗者の属性情報を生成する。 In particular, the correlation processing unit 26 generates attribute information regarding whether or not the occupant's walking aid is used. Further, the correlation processing unit 26 reflects the information regarding the presence / absence of the child seat in the correlation processing to generate the attribute information of the passenger.

次に、ユーザインタフェース部27は、車内の表示器40およびスピーカ50に接続されて、ECU20とユーザとが種々の情報を授受する仲立ちとなる。例えば、ユーザインタフェース部27は、運転モード選択処理部28で抽出された複数の運転モードを表示器40およびスピーカ50を介してユーザに提示する。また、表示器40のタッチパネルを用いて指定された運転モードは、ユーザインタフェース部27を介してECU20に入力される。 Next, the user interface unit 27 is connected to the display 40 and the speaker 50 in the vehicle, and acts as an intermediary between the ECU 20 and the user to exchange various information. For example, the user interface unit 27 presents a plurality of operation modes extracted by the operation mode selection processing unit 28 to the user via the display 40 and the speaker 50. Further, the operation mode specified by using the touch panel of the display 40 is input to the ECU 20 via the user interface unit 27.

運転モード選択処理部28は、相関処理部26で生成された搭乗者の属性情報に基づいて、当該搭乗者のための運転モードを特定する。特に運転モード選択処理部28は、搭乗者の属性情報に基づいて複数の運転モードを抽出し、これらの複数の運転モードを表示器40またはスピーカ50(ユーザインタフェース)を介してユーザに報知する。表示器40に表示された複数の運転モードのいずれかがユーザにより指定されると、運転モード選択処理部28は、この指定された運転モードを搭乗者のための運転モードとして特定する。 The operation mode selection processing unit 28 identifies the operation mode for the passenger based on the attribute information of the passenger generated by the correlation processing unit 26. In particular, the operation mode selection processing unit 28 extracts a plurality of operation modes based on the attribute information of the passenger, and notifies the user of the plurality of operation modes via the display 40 or the speaker 50 (user interface). When any of the plurality of operation modes displayed on the display 40 is specified by the user, the operation mode selection processing unit 28 specifies the designated operation mode as an operation mode for the passenger.

また、運転モード選択処理部28は、この特定された運転モードを自動運転システム10に通知する。より詳しくは、運転モード選択処理部28は、特定された運転モードを反映する車両制御パラメータの組み合わせを、自動運転システム10に通知する。車両制御パラメータとは、例えば加減速範囲、速度範囲、および移動経路の少なくともいずれかであって良いし、この他種々のパラメータを考えることができる。 Further, the operation mode selection processing unit 28 notifies the automatic operation system 10 of the specified operation mode. More specifically, the driving mode selection processing unit 28 notifies the automatic driving system 10 of the combination of vehicle control parameters reflecting the specified driving mode. The vehicle control parameter may be, for example, at least one of an acceleration / deceleration range, a speed range, and a movement path, and various other parameters can be considered.

荷物搬入支援処理部29は、後部ドアロック制御部60を制御して車両の荷物室のドアを開閉する。例えば車外カメラ31の映像から搭乗者が大型の荷物や車いすなどを伴っていることが判定されると、荷物搬入支援処理部29はトランクや後部ハッチを開けて荷物の収納を支援する。 The luggage carry-in support processing unit 29 controls the rear door lock control unit 60 to open and close the door of the luggage compartment of the vehicle. For example, when it is determined from the image of the outside camera 31 that the passenger is accompanied by a large baggage, a wheelchair, or the like, the baggage carry-in support processing unit 29 opens the trunk or the rear hatch to support the storage of the baggage.

ECU20は、上記の機能に基づいて搭乗者の属性を推定し、その結果を自動運転システム10に通知することで、適切な運転モードの指示を行う。例えばけがをしている人が搭乗していることが属性情報から判断されると、車両の運転者及び搭乗者に対して、加減速を抑えた“やさしい”運転等の運転モードの提案メッセージを表示器40に表示する。 The ECU 20 estimates the attributes of the occupant based on the above functions and notifies the automatic driving system 10 of the result to indicate an appropriate driving mode. For example, if it is determined from the attribute information that an injured person is on board , a message suggesting a driving mode such as "gentle" driving with suppressed acceleration / deceleration is sent to the vehicle driver and passengers. It is displayed on the display 40.

図1に示される画像処理部21、ドアロック解除検知処理部22、ドア開閉感知処理部23、ビーコン受信処理部24、音声処理部25、相関処理部26、ユーザインタフェース部27、運転モード選択処理部28、および荷物搬入支援処理部29の各機能は、例えば、プロセッサにより実行可能なプログラムの形態でメモリ(図示せず)等に記憶されることができる。すなわちECU20は、プログラムをメモリから読み出し、実行することで各プログラムに対応する機能を実現するコンピュータである。 Image processing unit 21, door unlock detection processing unit 22, door open / close detection processing unit 23, beacon reception processing unit 24, voice processing unit 25, correlation processing unit 26, user interface unit 27, operation mode selection processing shown in FIG. Each function of the unit 28 and the luggage carry-in support processing unit 29 can be stored in a memory (not shown) or the like in the form of a program that can be executed by a processor, for example. That is, the ECU 20 is a computer that realizes a function corresponding to each program by reading a program from a memory and executing the program.

プロセッサは、CPU(central processing unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等のハードウェア資源である。次に、上記構成における作用を説明する。 The processor is a CPU (central processing unit), a GPU (Graphics Processing Unit), an integrated circuit for a specific application (Application Specific Integrated Circuit (ASIC)), or a programmable logic device (for example, a Simple Programmable Logic Device: It is a hardware resource such as SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA). Next, the operation in the above configuration will be described.

図4および図5は、ECU20における処理手順の一例を示すフローチャートである。図4において車両のドアロックが解除されると、ドアロック解除センサ33がそのことを検知しECU20への給電が開始される(ステップS1)。そうすると直ちにECU20は起動し、同時に車外カメラ31、車内カメラ32、ドア開閉センサ34、およびシート感圧センサ37なども起動される(ステップS2)。 4 and 5 are flowcharts showing an example of the processing procedure in the ECU 20. When the door lock of the vehicle is released in FIG. 4, the door lock release sensor 33 detects this and starts supplying power to the ECU 20 (step S1). Immediately after that, the ECU 20 is activated, and at the same time, the external camera 31, the in-vehicle camera 32, the door open / close sensor 34, the seat pressure sensor 37, and the like are also activated (step S2).

続いて、車外カメラ31が、車両に接近する人物の動画を撮影して画像データをECU20の画像処理部21に出力する(ステップS3)。画像処理部21は画像データを処理して画像情報を生成し、接近する人物の車いす等の歩行補助具の有無、および年齢などの属性情報を画像情報から推定する。その結果は相関処理部26に出力される(ステップSS5)。 Subsequently, the external camera 31 captures a moving image of a person approaching the vehicle and outputs the image data to the image processing unit 21 of the ECU 20 (step S3). The image processing unit 21 processes the image data to generate image information, and estimates from the image information the presence / absence of a walking aid such as a wheelchair of an approaching person and attribute information such as age. The result is output to the correlation processing unit 26 (step SS5).

ここで、車外カメラ31の映像から荷物の存在が推定されると、相関処理部26は荷物搬入支援処理部29に指示を与えてトランクや後部ハッチをオープンさせ、荷物収納を支援する。 Here, when the presence of the luggage is estimated from the image of the external camera 31, the correlation processing unit 26 gives an instruction to the luggage carry-in support processing unit 29 to open the trunk and the rear hatch to support the luggage storage.

並行して、車内カメラ32も、車内の映像を起動後から継続して撮影している(ステップS4)。車内カメラ32により撮影された画像データは画像処理部21により処理され、画像情報が生成される。画像処理部21は、画像情報に基づいて、搭乗者が着席する前の状態としてチャイルドシートまたそれに類するものの有無を判定しその結果を出力する(ステップS6)。チャイルドシートの有無は相関処理部26に通知される(ステップS11)。 At the same time, the in-vehicle camera 32 also continuously captures the in-vehicle image after the start-up (step S4). The image data taken by the in-vehicle camera 32 is processed by the image processing unit 21 to generate image information. Based on the image information, the image processing unit 21 determines the presence or absence of a child seat or the like as a state before the passenger is seated, and outputs the result (step S6). The presence or absence of the child seat is notified to the correlation processing unit 26 (step S11).

次に、車両のドアが開けられると(ステップS7)ドア開閉センサ34が反応し(ステップS8)、ドア開閉感知処理部23はドアの開状態を相関処理部26に出力する(ステップS9)。 Next, when the door of the vehicle is opened (step S7), the door open / close sensor 34 reacts (step S8), and the door open / close detection processing unit 23 outputs the open state of the door to the correlation processing unit 26 (step S9).

相関処理部26は、ドア開閉感知処理部23からドアの開状態の通知を受けると、画像処理部21からの搭乗者の有無及び年齢推定結果を確認する。車外カメラ31と車内カメラ32とを連携させ、搭乗する人物の動画を車外カメラ31と車内カメラ32とで追跡撮影してもよい。そして相関処理部26は、開状態となったドア近傍の座席について、当該座席に対する搭乗者の有無を判定し、搭乗者の年齢を推定する(ステップS10)。 Upon receiving the notification of the open state of the door from the door open / close detection processing unit 23, the correlation processing unit 26 confirms the presence / absence of a passenger and the age estimation result from the image processing unit 21. The camera outside the vehicle 31 and the camera inside the vehicle 32 may be linked, and a moving image of a person on board may be tracked and photographed by the camera outside the vehicle 31 and the camera inside the vehicle 32. Then, the correlation processing unit 26 determines the presence or absence of a occupant for the seat in the vicinity of the opened door, and estimates the age of the occupant (step S10).

続いて、ドアが閉められるとドア開閉センサ34が反応し、ドア開閉感知処理部23は、ドアの閉状態を検知して(ステップS12)そのことを相関処理部26に通知する(ステップS21)。 Subsequently, when the door is closed, the door open / close sensor 34 reacts, and the door open / close detection processing unit 23 detects the closed state of the door (step S12) and notifies the correlation processing unit 26 of that (step S21). ..

相関処理部26は、ドア開閉感知処理部23からのドアの閉状態の通知から一定時間の経過後、または、搭乗者の運転席への着席を車内カメラ32で検知した時点、または、車外カメラ31に他の搭乗者候補が観測されなくなった時点で、それぞれの座席への搭乗者の有無及び年齢推定を確定する(ステップS22)。確定した搭乗者の属性は、運転モード選択処理部28に通知される。 The correlation processing unit 26 has elapsed a certain period of time from the notification of the closed state of the door from the door open / close detection processing unit 23, or when the in-vehicle camera 32 detects that the passenger is seated in the driver's seat, or the outside camera. When other passenger candidates are no longer observed in 31, the presence or absence of passengers in each seat and the age estimation are determined (step S22). The confirmed passenger attributes are notified to the operation mode selection processing unit 28.

そうすると運転モード選択処理部28は、搭乗者の属性に基づいて車両の運転モードを選択し、その内容を表示器40およびスピーカ50を介してユーザに報知して搭乗者の選択を促す(ステップS23)。搭乗者により運転モードが指定されると(ステップS24)、運転モード選択処理部28は、選択の結果を自動運転システム10に通知する(ステップS25)。 Then, the driving mode selection processing unit 28 selects the driving mode of the vehicle based on the attributes of the passenger, notifies the user of the contents via the display 40 and the speaker 50, and prompts the selection of the passenger (step S23). ). When the operation mode is specified by the passenger (step S24), the operation mode selection processing unit 28 notifies the automatic operation system 10 of the selection result (step S25).

図6は、図1の各センサの検知結果と搭乗者の属性の推定結果との相関を時系列で示す図である。図6は、車両の左後方ドアにおける処理について示す。すなわち、搭乗者の属性はドア単位で推定することができる。 FIG. 6 is a diagram showing the correlation between the detection result of each sensor of FIG. 1 and the estimation result of the occupant's attribute in chronological order. FIG. 6 shows processing at the left rear door of the vehicle. That is, the attributes of the passenger can be estimated for each door.

図6(a)に示されるように、例えばドアロック解除、車外カメラ(左)、ドア開(左後)、車内カメラ(左後方視野)、全ドア閉の5個の判断項目があるとする(#0〜#4)。最初にドアロック解除が検知されると(▽)、車外カメラおよび車内カメラが起動し、左後方ドア近傍に搭乗者が検知されたとする(○)。そうすると図6(b)に示されるように、車外カメラの画像データから歩行補助具の有無が判定され、車内カメラの画像データからチャイルドシートの有無が判定される。 As shown in FIG. 6A, it is assumed that there are five judgment items, for example, door unlock, outside camera (left), door open (left rear), in-vehicle camera (left rear view), and all doors closed. (# 0 to # 4). When the door unlock is first detected (▽), the outside camera and the inside camera are activated, and a passenger is detected near the left rear door (○). Then, as shown in FIG. 6B, the presence / absence of the walking aid is determined from the image data of the camera outside the vehicle, and the presence / absence of the child seat is determined from the image data of the camera inside the vehicle.

図6(a)で時間が経過し、左後ろのドアが開くと(▽)図6(b)において搭乗者の有無および搭乗者の年齢が推定される。さらに図6(a)で時間が経過し全てのドアが閉まると(全ドア閉(▽))、左後方のシートに関して、搭乗者の有無と年齢、およびチャイルドシートの有無が判定される。 When the time elapses in FIG. 6 (a) and the rear left door opens (▽), the presence or absence of a passenger and the age of the passenger are estimated in FIG. 6 (b). Further, when all the doors are closed after a lapse of time in FIG. 6A (all doors are closed (▽)), the presence / absence and age of a passenger and the presence / absence of a child seat are determined for the seat on the left rear side.

人が車両に搭乗する際の手順は、例えば以下(1)〜(5)のように分解することができる。
(1)車両に接近し、ドアの前に移動する。(2)車両のドアを開ける。(3)車両に搭乗し、着席する。(4)車両のドアを閉める。(5)車両の運転を開始する。
The procedure for a person to board a vehicle can be disassembled as follows, for example, (1) to (5).
(1) Approach the vehicle and move in front of the door. (2) Open the vehicle door. (3) Board the vehicle and take a seat. (4) Close the vehicle door. (5) Start driving the vehicle.

このとき、搭乗者が車いす、松葉づえ等の歩行補助具を用いている場合は、車外カメラ31において特徴的な画像及び移動パターンが観測される。また、ドアを開けた後に歩行補助具を外す行為が観測されることになる。 At this time, when the passenger is using a walking aid such as a wheelchair or crutches, a characteristic image and movement pattern are observed by the camera outside the vehicle 31. In addition, the act of removing the walking aid after opening the door will be observed.

一方、子供の搭乗者が居る場合には、車両接近時及びドア前において、撮影した画像から身長による判断が可能である。さらに、車内カメラ32で撮影された画像にベビーシート、チャイルドシート等の着席補助具が確認された場合は、乳幼児が搭乗者に含まれるものと判断可能である。さらには同様の判断により、ペットの同乗についても判断可能となる。 On the other hand, when there is a child passenger, it is possible to judge by height from the captured image when the vehicle approaches and in front of the door. Further, when a seating aid such as a baby seat or a child seat is confirmed in the image taken by the in-vehicle camera 32, it can be determined that the infant is included in the passenger. Furthermore, the same judgment makes it possible to judge whether a pet is on board.

各ドアごとに判定される属性情報は、例えば次の表に示される項目を含む。 The attribute information determined for each door includes, for example, the items shown in the following table.

Figure 0006892258
Figure 0006892258

ドア開閉感知処理部23から全てのドアが閉状態となったことを通知されると、相関処理部26は表1に示される属性情報を、ドアごとに生成する。例えばドアロック解除センサ33の検知結果から、搭乗者の有無といった小項目を推定することができる。搭乗者ありを1とすると、無しは0として定義される。車外カメラの画像データからは年齢、歩行補助具の有無を推定できる。車内カメラの画像データからは年齢、チャイルドシートの有無を推定できる。マイクからの音声を解析すれば年齢を推定することもできる。 When the door open / close detection processing unit 23 notifies that all the doors have been closed, the correlation processing unit 26 generates the attribute information shown in Table 1 for each door. For example, from the detection result of the door lock release sensor 33, a small item such as the presence or absence of a passenger can be estimated. If there is a passenger, it is defined as 1, and if there is no passenger, it is defined as 0. From the image data of the camera outside the vehicle, the age and the presence or absence of walking aids can be estimated. The age and the presence or absence of a child seat can be estimated from the image data of the in-vehicle camera. Age can also be estimated by analyzing the sound from the microphone.

表1の備考欄に示される数値(0/1)を用いて属性判定値Vmを計算することができる。 The attribute determination value Vm can be calculated using the numerical value (0/1) shown in the remarks column of Table 1.

例えば、杖等の歩行補助具を持たない大人が車両に接近したことを考える。この場合、車外カメラ31からの画像情報をもとに画像処理部21は、接近する人物が大人であることをその身長から判定する。その結果、年齢推定の値として0が生成され、歩行補助具なしとして0が生成される。車内カメラ32からの画像情報からもその人物が大人であることが判定され、年齢推定値として0を生成する。相関処理部26は、シート上にチャイルドシートが無ければ、値として0を生成する。 For example, consider that an adult who does not have a walking aid such as a cane approaches a vehicle. In this case, the image processing unit 21 determines from the height of the approaching person that the approaching person is an adult, based on the image information from the external camera 31. As a result, 0 is generated as the value of the age estimation, and 0 is generated as no walking aid. It is determined from the image information from the in-vehicle camera 32 that the person is an adult, and 0 is generated as the age estimation value. If there is no child seat on the sheet, the correlation processing unit 26 generates 0 as a value.

並行して、マイク36からの音声データ入力をもとに音声処理部25は、個別の発話者の弁別を行い、年齢推定を実施する。ここで搭乗者が大人と判定されれば属性情報の値として0を生成する。 At the same time, based on the voice data input from the microphone 36, the voice processing unit 25 discriminates each speaker and estimates the age. Here, if the passenger is determined to be an adult, 0 is generated as the value of the attribute information.

また、ドアが閉まった時点で当該ドアからの搭乗者の有無が判定され、搭乗者ありとして判定値1が生成される。以上の過程の結果として、表1の項目1=1、項目2〜6=0となり、属性判定値Vmとして0が得られる。 Further, when the door is closed, the presence or absence of a occupant from the door is determined, and a determination value of 1 is generated assuming that there is a occupant. As a result of the above process, items 1 = 1 and items 2 to 6 = 0 in Table 1 are obtained, and 0 is obtained as the attribute determination value Vm.

別のケースとして、松葉づえを用いた搭乗者が接近してきたとする。この場合、車外カメラ31からの画像データにより松葉づえが検出され、表1の項目3として、判定値1が生成される。項目3以外の各項目は、大人が接近した場合と同じ判定値が生成され、このケースで算出される属性判定値Vmは、1となる。 In another case, a passenger using crutches is approaching. In this case, crutches are detected from the image data from the external camera 31, and a determination value 1 is generated as item 3 in Table 1. For each item other than item 3, the same determination value as when an adult approaches is generated, and the attribute determination value Vm calculated in this case is 1.

更に、別のケースとして、子供の搭乗者が存在する場合を考える。この場合は、表1の項目2、項目4、項目6において、1が生成され、属性判定値Vmとして3が生成される。 Furthermore, as another case, consider the case where there is a child passenger. In this case, in item 2, item 4, and item 6 of Table 1, 1 is generated, and 3 is generated as the attribute determination value Vm.

属性判定値Vmは、相関処理部26から運転モード選択処理部28に通知される。属性判定値Vmが0でない場合には(Vm>0)、運転モード選択処理部28は、子供及び怪我人等向けの“やさしい運転”モードの利用が推奨される状況であることを判断する。そうすると運転モード選択処理部28は、例えば図7または図8に示されるようなメッセージを表示器40に表示する。 The attribute determination value Vm is notified from the correlation processing unit 26 to the operation mode selection processing unit 28. When the attribute determination value Vm is not 0 (Vm> 0), the operation mode selection processing unit 28 determines that the use of the "gentle driving" mode for children, injured persons, and the like is recommended. Then, the operation mode selection processing unit 28 displays a message as shown in FIG. 7 or 8, for example, on the display 40.

図7は、搭乗者に負担の少ない運転が可能であることを通知するメッセージの一例を示し、この画面から「はい」か「いいえ」かの選択を促す。音声によりスピーカ50を通じて、同内容を搭乗者に通知してもよい。図8においても、(やさしい運転)または(通常の運転)のいずれかを選択できるようになっている。 FIG. 7 shows an example of a message notifying the passenger that driving with less burden is possible, and prompts the passenger to select “yes” or “no” from this screen. The same content may be notified to the passenger through the speaker 50 by voice. Also in FIG. 8, either (gentle operation) or (normal operation) can be selected.

搭乗者が図7の画面から「はい」を選択すると、相関処理部26が自動運転システム10に対して、搭乗者の負担の少なくなる運転となる車両制御及びルート選定を指示する。つまり、(優しい運転モード)に応じた最適な車両制御パラメータの組み合わせ候補が自動運転システム10に通知される。
次に、本実施形態に係る実施例を幾つか説明する。
When the passenger selects "Yes" from the screen of FIG. 7, the correlation processing unit 26 instructs the automatic driving system 10 to control the vehicle and select a route that reduces the burden on the passenger. That is, the automatic driving system 10 is notified of the optimum combination candidate of the vehicle control parameter according to the (gentle driving mode).
Next, some examples according to this embodiment will be described.

[第1の実施例]
自動運転機能または自動運転支援機能付きの車両を用いたレンタカー/カーシェアリングを想定した実施例について説明する。
[First Example]
An example assuming rental car / car sharing using a vehicle with an automatic driving function or an automatic driving support function will be described.

搭乗者が、ドアロックを解除した時点で、本発明のシステムは稼働を開始し、ECU20は搭乗者の属性の収集を開始する。搭乗者にけが人等を含まないと判定した場合は、車両側からは特段の提示はせず、搭乗者の操作/指示がない限りは、通常運転モードとして、車両制御をする。 When the passenger releases the door lock, the system of the present invention starts operation, and the ECU 20 starts collecting the attributes of the passenger. If it is determined that the passengers do not include injured persons, the vehicle will not make any special presentation, and unless the passengers operate / instruct, the vehicle will be controlled in the normal operation mode.

松葉づえ、車いす、杖等の歩行補助具を利用した搭乗者がいると推定された場合は、通常よりも小さな加減速率となるように、あるいは横向き加速度を抑えた車線変更制御とする等の自動運転、または運転支援を行う。加えて、目的地までのルート選定においても、時間優先でなく、例えば信号による停車の少ない経路、交通量の少ない経路、または曲がり角の少ない経路を選択し、提示する。 If it is estimated that there are passengers using walking aids such as crutches, wheelchairs, and canes, automatic driving such as lane change control with a smaller acceleration / deceleration rate than usual or with lateral acceleration suppressed. , Or provide driving assistance. In addition, when selecting a route to a destination, instead of prioritizing time, for example, a route with less stops due to traffic lights, a route with less traffic, or a route with less turns is selected and presented.

また、歩行補助具を利用した搭乗者がいると推定された場合は、搭乗時に、歩行補助具収納のため、搭乗者に音声等によるロック解除の応答確認を実施し、トランクまたは後部ドアのロック解除を行ってもよい。 In addition, if it is estimated that there are passengers using walking aids, at the time of boarding, the passengers will be asked to confirm the unlock response by voice, etc. to store the walking aids, and the trunk or rear door will be locked. You may cancel it.

子供の搭乗者がいると推定された場合は、時間優先としたルート選定を行う。そして上記と同様の運転支援を行うことにより、子供が愚図らぬように乗車時間を短くしつつ、車内で安全に過ごせるように配慮した自動運転、または運転支援を提示する。 If it is estimated that there are children on board, time-priority route selection will be performed. Then, by providing the same driving support as above, we will present automatic driving or driving support that takes into consideration that children can spend their time safely in the car while shortening the riding time so as not to be foolish.

上記により、運転者は不慣れな車両において、搭乗者に最適な運転状態の提示を受け、複雑な操作を実施せず、容易に、搭乗者に安全で快適な運転を実現することが可能となる。例えばけが人といった搭乗者の状態によっては、通常とは異なり、時間がかかってもよく、加減速の割合を抑え、横方向の揺れなどについても最小限に抑えることが、搭乗者の快適さ及び安全面確保に重要となる。 As a result, the driver can easily realize safe and comfortable driving for the passenger in an unfamiliar vehicle by being presented with the optimum driving state by the passenger and without performing complicated operations. .. Depending on the condition of the passenger, such as an injured person, it may take longer than usual, and it is the comfort and safety of the passenger to reduce the rate of acceleration / deceleration and minimize lateral shaking. It is important to secure the surface.

近年の車両に搭載されるシステムは、より高度で複雑化するようになってきている。特に、日常使用していない不慣れな車両においては、車両搭載システムの操作は搭乗者にとって困難なものとなっている。その対策のため、車両側に画面表示、あるいは音声出力を用いて、車両に備わる機能の選択肢を搭乗者に提示し、搭乗者に選択を促す、または搭乗者の怪我の有無への質問/希望する内容を確認し、それに合わせて車両の設定を制御する方法が考えられる。 Systems installed in vehicles in recent years have become more sophisticated and complex. In particular, in an unfamiliar vehicle that is not used daily, it is difficult for the passenger to operate the vehicle mounting system. As a countermeasure, the screen display or voice output is used on the vehicle side to present the passengers with options for the functions provided in the vehicle, prompting the passengers to make a selection, or asking / wishing whether or not the passengers are injured. A method of confirming the contents to be performed and controlling the vehicle settings accordingly is conceivable.

しかしながら、選択肢の提示/各種質問に対して回答を行うことは、搭乗から出発までに時間を要する結果を招きやすい。さらには、質問への誤回答発生などにより搭乗者に対してストレスを生じさせる。 However, presenting options / answering various questions tends to lead to time-consuming results from boarding to departure. Furthermore, it causes stress on the passengers due to incorrect answers to questions.

これに対し実施形態では、車外カメラ31を活用し、車両外の搭乗者、つまり搭乗する前の状態を確認し、車内カメラ32やマイク36などのセンサシステムにより、搭乗者の属性を確認するようにした。そして、その結果に基づいて推奨可能な運転モードを選択し、最適な車両制御パラメータの組み合わせ候補を抽出して搭乗者に提示する。そして、搭乗者の意思に基づく選択の結果を車両の制御に反映させるようにした。これにより全ての搭乗者に快適さを提供する車両システムを実現することが可能になる。 On the other hand, in the embodiment, the outside camera 31 is used to confirm the passenger outside the vehicle, that is, the state before boarding, and the attributes of the passenger are confirmed by a sensor system such as the in-vehicle camera 32 and the microphone 36. I made it. Then, a recommended driving mode is selected based on the result, and the optimum combination candidate of the vehicle control parameter is extracted and presented to the passenger. Then, the result of the selection based on the intention of the passenger is reflected in the control of the vehicle. This makes it possible to realize a vehicle system that provides comfort to all passengers.

また、カーシェアリング/レンタカーのような一時的な利用環境においても、搭乗者の属性を取得し、属性を反映したメニューの中から最適なものを提案することで、最小限の質疑応答で最適な運転モードを決定できるようになる。従って、車種ごとに異なる、より高度化、複雑化する車両の制御システムにおいて専門家でなくとも、容易に活用できるシステムを手段を提供する。 In addition, even in a temporary usage environment such as car sharing / rental car, by acquiring the attributes of the passenger and proposing the most suitable one from the menu that reflects the attributes, it is optimal with a minimum of questions and answers. You will be able to determine the operation mode. Therefore, it provides a means for a system that can be easily utilized even by a non-specialist in a more sophisticated and complicated vehicle control system that differs depending on the vehicle type.

[第2の実施例]
例えば、自動運転のタクシーにも上記実施の形態を適用することができる。自動運転のタクシーの業務遂行中は、当該タクシーに備えられたECU20を常時稼働状態としておくとよい。
車外カメラ31により、搭乗者と推定される人物を発見し、その属性を収集する。当該の搭乗者が接近して、車内に登場した際に、収集済みの属性から、搭乗者にけが人等の有無を判断し、第1の実施例と同様のメッセージを乗客に提示するようにする。
[Second Example]
For example, the above embodiment can be applied to an automatically driven taxi. While the self-driving taxi is in operation, the ECU 20 provided in the taxi may be kept in operation at all times.
The out-of-vehicle camera 31 discovers a person presumed to be a passenger and collects its attributes. When the passenger approaches and appears in the vehicle, the presence or absence of an injured passenger is determined from the collected attributes, and the same message as in the first embodiment is presented to the passenger. ..

このようにすることで、自動運転のタクシーにおいて、搭乗者への質疑応答の確認等を不要とすることができる。また、搭乗者に対して最適な運転状態を提示することができ、乗車から速やかな発進と、搭乗者に安全で快適な運転を実現することが可能となる。 By doing so, it is possible to eliminate the need to confirm the question and answer to the passengers in the self-driving taxi. In addition, it is possible to present the optimum driving state to the passenger, and it is possible to realize a quick start from the boarding and a safe and comfortable driving for the passenger.

実施形態に係る技術を適用しない場合、自動運転のタクシーで搭乗者の状態に合わせた運転を実施するためには、システムの特質上、搭乗者への事細かな質疑応答が必要になる。また、車両の判断機能、または遠隔のオペレータの判断により、運転モードを制御する必要がある。この仕組みは、搭乗者が車両に搭乗してから利用することになり、発進までに時間を要する作業となる。 If the technology according to the embodiment is not applied, a detailed question and answer session with the passenger is required due to the nature of the system in order to carry out the driving according to the passenger's condition in the self-driving taxi. In addition, it is necessary to control the driving mode by the judgment function of the vehicle or the judgment of a remote operator. This mechanism will be used after the passenger has boarded the vehicle, and it will take time to start.

これに対し実施形態によれば、搭乗者は提示されたメッセージから自分の望む運転モードを選択するだけで良いので、速やかな発進と、快適な運転とを享受することができる。 On the other hand, according to the embodiment, the passenger only has to select the driving mode he / she desires from the presented message, so that he / she can enjoy a quick start and comfortable driving.

[第3の実施例]
自動運転機能または自動運転支援機能付きの車両を用いたレンタカー/カーシェアリング、あるいはタクシーのいずれにも適用可能な実施例について説明する。
[Third Example]
An embodiment applicable to either rental car / car sharing using a vehicle with an automatic driving function or an automatic driving support function, or a taxi will be described.

歩行補助具として、運動能力をアシストするアクチュエータ技術を搭乗者が用いている場合、あるいは、通常は歩行補助具を使用しているにも関わらず歩行補助具を装着(利用)しない搭乗者に対しては、カメラで撮影された画像データからだけではその属性を判断することが難しい場合がある。 For passengers who use actuator technology that assists their athletic ability as walking aids, or for passengers who normally use walking aids but do not wear (use) walking aids. In some cases, it may be difficult to determine the attribute only from the image data taken by the camera.

この場合、搭乗者が利用する歩行補助具に、ビーコン発信機80を取り付ける。または、あらかじめ搭乗者の年齢や怪我の有無といった属性に合わせて異なる信号を発するビーコン発信機80を搭乗者自身が携帯する。そして、その信号を車両側で受信し、カメラからの映像と関連付けることで、搭乗者の属性を推定することができる。これにより第1の実施例、第2の実施例と同様に、搭乗者に最適な運転モードを提示し、速やかな発進と、安全で快適な運転を実現することが可能となる。 In this case, the beacon transmitter 80 is attached to the walking aid used by the passenger. Alternatively, the passenger himself carries a beacon transmitter 80 that emits a different signal according to the attributes such as the age of the passenger and the presence or absence of injury in advance. Then, by receiving the signal on the vehicle side and associating it with the image from the camera, the attributes of the passenger can be estimated. As a result, as in the first embodiment and the second embodiment, it is possible to present the optimum driving mode to the passenger and realize a quick start and safe and comfortable driving.

以上述べたように実施形態によれば、車外カメラ31を積極的に利用し、人物の搭乗前からその属性推定を開始するようにしている。そして、車いす、松葉づえなどの使用の有無を判定するにも車外の映像を活用するようにしている。従って、車内カメラ32だけでは検知することの困難な詳細な属性も取得することができる。さらには、車内カメラ32だけでは困難であった搭乗者の属性も正確に取得することができ、より適切な運転モードの提案を実現することができる。 As described above, according to the embodiment, the external camera 31 is actively used, and the attribute estimation is started before the person is boarded. The images outside the vehicle are also used to determine whether or not wheelchairs and crutches are used. Therefore, it is possible to acquire detailed attributes that are difficult to detect only with the in-vehicle camera 32. Furthermore, the attributes of the passenger, which was difficult only with the in-vehicle camera 32, can be accurately acquired, and a more appropriate driving mode can be proposed.

また実施形態によれば搭乗者は、車両に備わる機能を知らなくても、車両側から搭乗者の属性を判断し、車両に備わる機能を提案することができる。従って搭乗者に手間をかけさせず、より快適な移動手段を提供することが可能となる。 Further, according to the embodiment, the passenger can determine the attributes of the occupant from the vehicle side and propose the functions provided in the vehicle without knowing the functions provided in the vehicle. Therefore, it is possible to provide a more comfortable means of transportation without causing the passenger to take time and effort.

また、ドアロックの解除された時点からセンサシステム30やECU20が起動するようにすることで、搭乗者の属性の収集を搭乗前から開始できるようになる。従って、出発可能となるまでの時間の間に適切な運転モードの提案と搭乗者による選択を可能とし、搭乗者に対してストレスのない利用環境を提供することができる。 Further, by starting the sensor system 30 and the ECU 20 from the time when the door lock is released, the collection of the attributes of the passenger can be started before boarding. Therefore, it is possible to propose an appropriate driving mode and select it by the passenger during the time until the departure becomes possible, and it is possible to provide the passenger with a stress-free usage environment.

これらのことから実施形態によれば、搭乗者へのサービス性を高めた運転状態制御装置および運転状態制御方法を提供することが可能となる。 From these facts, according to the embodiment, it is possible to provide an operation state control device and an operation state control method with enhanced serviceability to passengers.

なお、本発明は上記実施形態に限定されるものではない。例えば自動運転システムは、自動運転支援システムと読み替えることができる。また、必要な程度にまで詳細な属性情報を取得可能な性能を持つカメラがあれば、そのカメラで取得された属性情報だけに基づいて所期の処理を行っても良い。 The present invention is not limited to the above embodiment. For example, an automatic driving system can be read as an automatic driving support system. Further, if there is a camera having a performance capable of acquiring detailed attribute information to the extent necessary, the desired processing may be performed based only on the attribute information acquired by the camera.

上記に説明した各装置及びシステムを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。 The execution process is performed by recording the program for realizing each device and the system described above on a computer-readable recording medium, causing the computer system to read the program recorded on the recording medium, and executing the program. You may. The "computer system" referred to here may include hardware such as an OS and peripheral devices.

本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. This novel embodiment can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

10…自動運転システム、20…ECU、21…画像処理部、22…ドアロック解除検知処理部、23…ドア開閉感知処理部、24…ビーコン受信処理部、25…音声処理部、26…相関処理部、27…ユーザインタフェース部、28…運転モード選択処理部、29…荷物搬入支援処理部、30…センサシステム、31…車外カメラ、32…車内カメラ、33…ドアロック解除センサ、34…ドア開閉センサ、35…ビーコン受信機、36…マイク、37…シート感圧センサ、40…表示器、50…スピーカ、60…後部ドアロック制御部、70…照明、80…ビーコン発信機。 10 ... Automatic operation system, 20 ... ECU, 21 ... Image processing unit, 22 ... Door lock release detection processing unit, 23 ... Door open / close detection processing unit, 24 ... Beacon reception processing unit, 25 ... Voice processing unit, 26 ... Correlation processing Unit, 27 ... User interface unit, 28 ... Operation mode selection processing unit, 29 ... Luggage loading support processing unit, 30 ... Sensor system, 31 ... Outside camera, 32 ... Inside camera, 33 ... Door unlock sensor, 34 ... Door open / close Sensor, 35 ... Beacon receiver, 36 ... Microphone, 37 ... Seat pressure sensor, 40 ... Display, 50 ... Speaker, 60 ... Rear door lock control unit, 70 ... Lighting, 80 ... Beacon transmitter.

Claims (14)

車両の外部を視野に含むカメラで取得された画像データを処理して、前記車両の搭乗者の前記視野における画像情報を取得する画像処理部と、
前記画像情報を用いた相関処理により、前記搭乗者の属性情報を生成する相関処理部と、
前記属性情報に基づいて、前記搭乗者のための運転モードを特定するモード処理部とを具備し、
前記モード処理部は、
前記属性情報に基づいて、通常の第1運転モードと、前記第1運転モードよりも前記搭乗者への負担の少ない第2運転モードとをユーザインタフェースに提示し、
前記ユーザインタフェースにおいてユーザにより指定された運転モードを、前記搭乗者のための運転モードとして特定する、運転状態制御装置。
An image processing unit that processes image data acquired by a camera including the outside of the vehicle in the field of view to acquire image information in the field of view of the occupant of the vehicle.
A correlation processing unit that generates attribute information of the passenger by correlation processing using the image information,
A mode processing unit for specifying an operation mode for the passenger based on the attribute information is provided.
The mode processing unit
Based on the attribute information, the normal first operation mode and the second operation mode, which is less burdensome to the passenger than the first operation mode, are presented to the user interface.
An operation state control device that specifies an operation mode specified by a user in the user interface as an operation mode for the passenger.
前記画像処理部は、車内を視野に含む画像センサで取得された画像データを処理して前記車内の画像情報を取得し、
前記相関処理部は、前記搭乗者の画像情報と前記車内の画像情報との相関処理により前記搭乗者の属性情報を生成する、請求項1に記載の運転状態制御装置。
The image processing unit processes the image data acquired by the image sensor including the inside of the vehicle in the field of view to acquire the image information inside the vehicle.
The operating state control device according to claim 1, wherein the correlation processing unit generates attribute information of the passenger by correlation processing between the image information of the passenger and the image information in the vehicle.
さらに、前記車両に装荷されたビーコン受信機で受信されたビーコン信号を処理してビーコン情報を取得するビーコン受信処理部を具備し、
前記相関処理部は、前記ビーコン情報を用いた前記相関処理により前記搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。
Further, it is provided with a beacon reception processing unit that processes a beacon signal received by a beacon receiver loaded on the vehicle to acquire beacon information.
The operating state control device according to claim 2, wherein the correlation processing unit generates attribute information of the passenger by the correlation processing using the beacon information.
さらに、前記車両に装荷されたマイクロフォンから出力される音声信号を処理して音声情報を取得する音声処理部を具備し、
前記相関処理部は、前記音声情報を用いた前記相関処理により前記搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。
Further, it is provided with a voice processing unit that processes a voice signal output from a microphone loaded on the vehicle and acquires voice information.
The operating state control device according to claim 2, wherein the correlation processing unit generates attribute information of the passenger by the correlation processing using the voice information.
さらに、前記車両のドアロックの状態を検知するロックセンサからの検知情報を処理するドアロック解除検知処理部を具備し、
前記相関処理部は、前記ロックセンサによりドアロック解除が検知されると、前記相関処理を開始する、請求項2に記載の運転状態制御装置。
Further, it is provided with a door lock release detection processing unit that processes detection information from a lock sensor that detects the door lock state of the vehicle.
The operation state control device according to claim 2, wherein the correlation processing unit starts the correlation processing when the door lock release is detected by the lock sensor.
さらに、前記車両のドアの開閉状態を検知するドアセンサからの検知情報を処理するドア開閉感知処理部を具備し、
前記相関処理部は、前記ドアセンサにより検知された前記ドアの開状態と閉状態の時系列の変化に基づいて、当該ドアからの搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。
Further, it is provided with a door open / close detection processing unit that processes detection information from the door sensor that detects the open / closed state of the door of the vehicle.
The operating state according to claim 2, wherein the correlation processing unit generates attribute information of a occupant from the door based on a time-series change of the open state and the closed state of the door detected by the door sensor. Control device.
前記相関処理部は、前記車両のシート上の圧力を検知する感圧センサの感応したシートの搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。 The driving state control device according to claim 2, wherein the correlation processing unit generates attribute information of a occupant of a seat that is sensitive to a pressure sensor that detects pressure on the seat of the vehicle. 前記第2運転モードは、前記通常よりも小さな加減速率となる運転モード、あるいは、横向き加速度を抑えた車線変更制御とする運転モードである、請求項1に記載の運転状態制御装置。 The driving state control device according to claim 1, wherein the second driving mode is a driving mode in which the acceleration / deceleration rate is smaller than usual, or a lane change control in which lateral acceleration is suppressed. 前記モード処理部は、前記特定された運転モードを前記車両の自動運転システムに通知する、請求項8に記載の運転状態制御装置。 The driving state control device according to claim 8, wherein the mode processing unit notifies the automatic driving system of the vehicle of the specified driving mode. 前記モード処理部は、前記特定された運転モードを反映する車両制御パラメータの組み合わせを前記車両の自動運転システムに通知する、請求項8に記載の運転状態制御装置。 The driving state control device according to claim 8, wherein the mode processing unit notifies the automatic driving system of the vehicle of a combination of vehicle control parameters reflecting the specified driving mode. 前記車両制御パラメータは、加減速範囲、速度範囲、および移動経路の少なくともいずれかである、請求項10に記載の運転状態制御装置。 The driving state control device according to claim 10, wherein the vehicle control parameter is at least one of an acceleration / deceleration range, a speed range, and a movement path. 前記相関処理部は、前記搭乗者の歩行補助具の使用の有無に関する属性情報を生成する、請求項1に記載の運転状態制御装置。 The driving state control device according to claim 1, wherein the correlation processing unit generates attribute information regarding whether or not the passenger uses a walking aid. 前記画像処理部は、前記車内の画像情報に基づき取得したチャイルドシートの有無に関する情報を前記相関処理部に渡し、
前記相関処理部は、前記チャイルドシートの有無に関する情報を前記相関処理に反映させて前記搭乗者の属性情報を生成する、請求項2に記載の運転状態制御装置。
The image processing unit passes information on the presence or absence of a child seat acquired based on the image information in the vehicle to the correlation processing unit.
The operating state control device according to claim 2, wherein the correlation processing unit reflects information regarding the presence or absence of the child seat in the correlation processing to generate attribute information of the passenger.
車両に搭載されるコンピュータに適用可能な運転状態制御方法において、
前記コンピュータが、車両の外部を視野に含むカメラで取得された画像データを処理して、前記車両の搭乗者の前記視野における画像情報を取得することと、
前記コンピュータが、前記画像情報を用いた相関処理により、前記搭乗者の属性情報を生成することと、
前記コンピュータが、前記属性情報に基づいて、前記搭乗者のための運転モードを特定することと、
前記コンピュータが、前記属性情報に基づいて、通常の第1運転モードと、前記第1運転モードよりも前記搭乗者への負担の少ない第2運転モードとをユーザインタフェースに提示することと、
前記コンピュータが、前記ユーザインタフェースにおいてユーザにより指定された運転モードを、前記搭乗者のための運転モードとして特定することとを具備する、運転状態制御方法。
In the driving state control method applicable to the computer mounted on the vehicle,
The computer processes the image data acquired by the camera including the outside of the vehicle in the field of view to acquire the image information in the field of view of the passenger of the vehicle.
The computer generates attribute information of the passenger by correlation processing using the image information.
The computer identifies the driving mode for the passenger based on the attribute information.
Based on the attribute information, the computer presents to the user interface a normal first operation mode and a second operation mode in which the burden on the passenger is less than that of the first operation mode.
A driving state control method comprising: the computer specifying a driving mode specified by a user in the user interface as a driving mode for the passenger.
JP2016243565A 2016-12-15 2016-12-15 Operating state control device and operating state control method Active JP6892258B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016243565A JP6892258B2 (en) 2016-12-15 2016-12-15 Operating state control device and operating state control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016243565A JP6892258B2 (en) 2016-12-15 2016-12-15 Operating state control device and operating state control method

Publications (2)

Publication Number Publication Date
JP2018097737A JP2018097737A (en) 2018-06-21
JP6892258B2 true JP6892258B2 (en) 2021-06-23

Family

ID=62633763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016243565A Active JP6892258B2 (en) 2016-12-15 2016-12-15 Operating state control device and operating state control method

Country Status (1)

Country Link
JP (1) JP6892258B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6714552B2 (en) * 2017-08-24 2020-06-24 本田技研工業株式会社 Vehicle control device
WO2020004375A1 (en) * 2018-06-29 2020-01-02 ソニー株式会社 Information processing device and information processing method
JP6791925B2 (en) * 2018-09-28 2020-11-25 株式会社Subaru Vehicle control device, program
JP6858738B2 (en) * 2018-11-22 2021-04-14 三菱電機株式会社 Automatic operation control device and automatic operation control method
JP7155985B2 (en) 2018-12-13 2022-10-19 トヨタ自動車株式会社 Vehicle and passenger transportation system
JP2020140381A (en) 2019-02-27 2020-09-03 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
JP2020164067A (en) * 2019-03-29 2020-10-08 5Kサポート株式会社 Dashboard camera installation method, dashboard camera, and automobile
JP7140067B2 (en) * 2019-07-12 2022-09-21 株式会社デンソー VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4935458B2 (en) * 2007-03-28 2012-05-23 株式会社デンソー Driving assistance device
JP2010111292A (en) * 2008-11-06 2010-05-20 Panasonic Electric Works Co Ltd Vehicular control device
JP2013252863A (en) * 2013-09-27 2013-12-19 Takata Corp Occupant restriction control device and occupant restriction control method
JP6134641B2 (en) * 2013-12-24 2017-05-24 株式会社日立製作所 Elevator with image recognition function
JP6361220B2 (en) * 2014-03-27 2018-07-25 株式会社ニコン Autonomous vehicle
JP2016062414A (en) * 2014-09-19 2016-04-25 クラリオン株式会社 In-vehicle monitoring device and in-vehicle monitoring system
US10302444B2 (en) * 2015-01-30 2019-05-28 Sony Corporation Information processing system and control method

Also Published As

Publication number Publication date
JP2018097737A (en) 2018-06-21

Similar Documents

Publication Publication Date Title
JP6892258B2 (en) Operating state control device and operating state control method
JP6985523B2 (en) Discrimination and response of the internal state of the vehicle
EP3378722B1 (en) Drive assistance device and drive assistance method, and moving body
CN109690609B (en) Passenger assist device, method, and program
GB2555530A (en) Passenger monitoring systems and methods
CN110997418A (en) Vehicle occupancy management system and method
JP6167690B2 (en) Vehicle interior monitoring device
JP2006338535A (en) Method and device for preventing things from being left behind in car
US9508246B2 (en) In-vehicle charging device, automobile and charging system
JP7338157B2 (en) vehicle controller
WO2016181395A1 (en) System and method for determining whether objects have been left in unattended vehicles
JP2020111896A (en) Vehicle door control device
JP7234581B2 (en) Vehicle door control device
JPWO2020031695A1 (en) Information processing equipment, mobiles, information processing methods and programs
CN112918485A (en) System and method for detecting and mitigating unsafe conditions in a vehicle
JP7084835B2 (en) Autonomous driving method and vehicle
JP2008221989A (en) Monitor device and program
JP4144448B2 (en) Vehicle rear display device
US20230398994A1 (en) Vehicle sensing and control systems
KR101826639B1 (en) Notice apparatus of departing person after departure of the vehicle and method thereof
US11396857B2 (en) Safely initiating an autonomous vehicle ride
JP2019114267A (en) Autonomous driving vehicle
CN113022574A (en) System and method for detecting abnormal passenger stability in vehicle
JP2019040316A (en) Parking support device, parking support method, and parking support program
JP7473082B2 (en) Lost property prevention device, lost property prevention program, and lost property prevention method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210527

R150 Certificate of patent or registration of utility model

Ref document number: 6892258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250