JP7306303B2 - judgment device - Google Patents

judgment device Download PDF

Info

Publication number
JP7306303B2
JP7306303B2 JP2020051513A JP2020051513A JP7306303B2 JP 7306303 B2 JP7306303 B2 JP 7306303B2 JP 2020051513 A JP2020051513 A JP 2020051513A JP 2020051513 A JP2020051513 A JP 2020051513A JP 7306303 B2 JP7306303 B2 JP 7306303B2
Authority
JP
Japan
Prior art keywords
unit
occupant
support
hand
usage status
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020051513A
Other languages
Japanese (ja)
Other versions
JP2021147001A (en
Inventor
隆太 津田
英人 平原
聡 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Isuzu Motors Ltd
Original Assignee
Isuzu Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isuzu Motors Ltd filed Critical Isuzu Motors Ltd
Priority to JP2020051513A priority Critical patent/JP7306303B2/en
Publication of JP2021147001A publication Critical patent/JP2021147001A/en
Application granted granted Critical
Publication of JP7306303B2 publication Critical patent/JP7306303B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、バスの乗員の安全性を判定する判定装置に関する。 The present invention relates to a judging device for judging the safety of bus passengers.

バスにおいて乗員の転倒等の事故を抑制するために、車室内に起立状態の乗員がいるか否かを判定し、起立状態の乗員がいる場合に危険性ありと判定することが提案されている(例えば、特許文献1参照)。 In order to prevent accidents such as occupants falling over on buses, it has been proposed to determine whether or not there is an upright occupant in the vehicle, and to determine that there is a danger if there is an upright occupant ( For example, see Patent Document 1).

特開2016-107817号公報JP 2016-107817 A

乗員は、起立状態において手すり等の支持具を把持していれば、比較的安定した姿勢を維持することが可能である。しかしながら、特許文献1に記載の技術では、乗員が支持具を把持しているか否かを判定することができず、乗員の安全性を精度良く判定することができないという問題があった。 The occupant can maintain a relatively stable posture by holding a support such as a handrail while standing. However, with the technique described in Patent Document 1, there is a problem that it cannot be determined whether or not the occupant is holding the support, and thus the safety of the occupant cannot be accurately determined.

本発明はこの点に鑑みてなされたものであり、車室内の乗員の安全性の判定の精度を向上させることができる判定装置を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of this point, and an object of the present invention is to provide a determination device capable of improving the accuracy of determination of the safety of the occupants in the passenger compartment.

本発明の第1の態様の判定装置は、バスの内部を撮像した撮像画像を取得する取得部と、前記取得部が取得した前記撮像画像に基づいて、起立状態の乗員を検知する検知部と、前記検知部が検知した前記乗員の前記バスに設けられている前記乗員を支持するための支持具の利用状況を特定する利用状況特定部と、前記利用状況特定部が特定した前記利用状況に基づいて、前記乗員が危険であるかを判定する判定部と、を備える。 A determination device according to a first aspect of the present invention includes an acquisition unit that acquires a captured image of the inside of a bus, and a detection unit that detects a standing passenger based on the captured image acquired by the acquisition unit. a usage status specifying unit for specifying the usage status of the support member provided on the bus for supporting the passenger detected by the detection unit; and a determination unit that determines whether the occupant is in danger based on the above.

前記検知部は、起立状態の前記乗員の手の位置を検知し、前記利用状況特定部は、前記手の高さが吊架高さ以上である場合に、前記乗員が前記支持具を利用している状況であると特定してもよい。前記検知部は、起立状態の前記乗員の手の位置を検知し、前記利用状況特定部は、前記手の所定時間内の変位量に基づいて、前記乗員の前記支持具の利用状況を特定してもよい。 The detection unit detects the position of the hand of the occupant in a standing state, and the use status identification unit detects whether the occupant uses the support when the height of the hand is equal to or higher than the suspension height. It may be identified as a situation where The detection unit detects the position of the hand of the occupant in a standing state, and the use condition identifying unit identifies the use condition of the support device by the occupant based on the amount of displacement of the hand within a predetermined time. may

前記判定装置は、前記撮像画像において所定の色を有する構造物を前記支持具として特定する支持具特定部をさらに備え、前記検知部は、起立状態の前記乗員の手の位置を検知し、前記利用状況特定部は、前記支持具特定部が特定した前記支持具の位置と、前記検知部が検知した前記手の位置とに基づいて、前記乗員の前記支持具の利用状況を特定してもよい。 The determination device further includes a support identification unit that identifies a structure having a predetermined color in the captured image as the support, and the detection unit detects the position of the occupant's hand in the standing state, The usage status specifying unit specifies the usage status of the support device of the occupant based on the position of the support device specified by the support device specification unit and the position of the hand detected by the detection unit. good.

前記検知部は、前記乗員の手の位置を特定し、乗員がバスに搭乗していない状態の前記撮像画像を解析することにより、エッジを有する構造物を支持具として特定する支持具特定部と、過去の複数の前記撮像画像において前記検知部が検知した前記手の位置の履歴を示す履歴情報を記憶している記憶部をさらに備え、前記支持具特定部は、前記支持具を複数のセグメントに分割し、前記履歴情報が示す複数の前記手の位置のそれぞれと、前記セグメントの位置とが一致する回数に基づいて、前記支持具の有効セグメントを特定し、前記利用状況特定部は、前記取得部が前記撮像画像を取得すると、当該撮像画像において前記検知部が特定した前記手の位置と、特定した前記有効セグメントの位置とに基づいて、前記乗員の前記支持具の利用状況を特定してもよい。前記検知部は、前記乗員の属性を検知し、前記判定部は、前記検知部が検知した前記乗員の属性が所定条件を満たすかに基づいて、前記乗員が危険であるかを判定してもよい。 The detection unit is a support identification unit that identifies a structure having an edge as a support by identifying the positions of the hands of the occupant and analyzing the captured image in a state in which the occupant is not on the bus. and a storage unit that stores history information indicating a history of positions of the hands detected by the detection unit in the plurality of past captured images, wherein the support identifying unit stores the support by dividing the support into a plurality of segments. , and based on the number of times each of the plurality of hand positions indicated by the history information matches the position of the segment, the effective segment of the support is specified, and the usage status specifying unit is configured to: When the acquisition unit acquires the captured image, the usage status of the support device by the occupant is specified based on the position of the hand specified by the detection unit and the specified effective segment position in the captured image. may The detection unit detects an attribute of the occupant, and the determination unit determines whether the occupant is in danger based on whether the attribute of the occupant detected by the detection unit satisfies a predetermined condition. good.

本発明によれば、車室内の乗員の安全性の判定の精度を向上させるという効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, it is effective in improving the precision of a passenger|crew's safety determination in a vehicle interior.

実施形態の判定装置の概要を示す図である。It is a figure which shows the outline|summary of the determination apparatus of embodiment. バスの構成を示す図である。3 is a diagram showing the configuration of a bus; FIG. 手の変位量の一例を示す図である。It is a figure which shows an example of the displacement amount of a hand. 判定装置によるバスの乗員の安全性の判定の処理手順を示すフローチャートである。It is a flow chart which shows a processing procedure of judgment of passenger safety of a bus by a judging device. 支持具特定部による有効セグメントの特定方法について説明するための図である。FIG. 11 is a diagram for explaining a method of identifying valid segments by a support identifying unit;

[判定装置の概要]
図1は、本実施形態の判定装置の概要を示す図である。図1は、バスに搭載された撮像部により車内を撮像した撮像画像を示す。判定装置は、例えば、ECU(Electronic Control Unit)により実現される。判定装置は、撮像部が生成した撮像画像に基づいてバスの乗員を検知する。判定装置は、検知した乗員が座席に着席していない起立状態であるかを特定する。バスには、乗員を支持するための複数の支持具が設けられている。支持具は、例えば、つり革又は手すりである。判定装置は、撮像部が生成した撮像画像に基づいて、起立状態の乗員の支持具の利用状況を特定する。判定装置は、特定した利用状況に基づいて、乗員が危険な状態であるかを判定する。図1の例では、手前の起立状態の乗員Aは、支持具を把持している。判定装置は、起立状態の乗員Aが支持具を把持しているため、乗員Aが危険な状態でないと判定する。
[Outline of determination device]
FIG. 1 is a diagram showing an overview of the determination device of this embodiment. FIG. 1 shows a captured image of the inside of a bus captured by an imaging unit mounted on a bus. The determination device is implemented by, for example, an ECU (Electronic Control Unit). The determination device detects the occupant of the bus based on the captured image generated by the imaging unit. The determination device identifies whether the detected occupant is in a standing state without sitting on the seat. Buses are provided with a plurality of supports for supporting passengers. Supports are, for example, straps or handrails. The determination device identifies the usage status of the support of the standing occupant based on the captured image generated by the imaging unit. The determination device determines whether the occupant is in a dangerous state based on the specified usage situation. In the example of FIG. 1, the occupant A in the front standing position holds the support. The determination device determines that the occupant A is not in a dangerous state because the occupant A in the standing state is holding the support.

判定装置は、支持具の利用状況を特定し、特定した利用状況に基づいて、乗員が危険な状態であるかを判定する。このようにして、判定装置は、乗員が支持具を把持していて安全な状態である場合に、乗員が危険な状態であると誤って判定することを抑制することができる。このため、判定装置は、乗員の安全性の判定精度を向上させることができる。 The determination device specifies the usage status of the support, and determines whether the occupant is in a dangerous state based on the specified usage status. In this way, the determination device can suppress erroneous determination that the occupant is in a dangerous state when the occupant is holding the support and is in a safe state. Therefore, the determination device can improve the accuracy of determination of passenger safety.

[バスの構成]
図2は、バス100の構成を示す図である。バス100は、撮像部1、表示部2及び判定装置3を備える。判定装置3は、記憶部31及び制御部32を備える。
[Bus configuration]
FIG. 2 is a diagram showing the configuration of the bus 100. As shown in FIG. A bus 100 includes an imaging unit 1 , a display unit 2 and a determination device 3 . The determination device 3 includes a storage section 31 and a control section 32 .

撮像部1は、バスの内部を撮像した撮像画像を生成する。図1の例では、撮像部1は、バスの後方からバスの内部を撮像するが、バスの前方からバスの内部を撮像してもよい。また、複数の撮像部がバスに設けられてもよい。 The imaging unit 1 generates a captured image of the inside of the bus. In the example of FIG. 1, the imaging unit 1 images the interior of the bus from the rear of the bus, but may also image the interior of the bus from the front of the bus. Also, a plurality of imaging units may be provided on the bus.

表示部2は、文字等を表示するためのディスプレイである。記憶部31は、例えば、ROM(Read Only Memory)及びRAM(Random Access Memory)等により構成される。制御部32は、例えば、CPU(Central Processing Unit)である。制御部32は、記憶部31に記憶されたプログラムを実行することにより、取得部321、検知部322、支持具特定部323、利用状況特定部324、判定部325及び通知部326として機能する。 The display unit 2 is a display for displaying characters and the like. The storage unit 31 is composed of, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory). The control unit 32 is, for example, a CPU (Central Processing Unit). The control unit 32 functions as an acquisition unit 321 , a detection unit 322 , a support identification unit 323 , a use state identification unit 324 , a determination unit 325 and a notification unit 326 by executing programs stored in the storage unit 31 .

取得部321は、撮像部1が生成したバス100の内部の撮像画像を取得する。取得部321は、所定時間ごとに撮像画像を取得する。取得部321は、バス100の車内に複数の撮像部1が設けられている場合には、それぞれの撮像部1が生成した撮像画像を取得する。 The acquisition unit 321 acquires the captured image inside the bus 100 generated by the imaging unit 1 . Acquisition unit 321 acquires a captured image at predetermined time intervals. When a plurality of imaging units 1 are provided inside the bus 100 , the acquisition unit 321 acquires captured images generated by the respective imaging units 1 .

[乗員の検知]
検知部322は、取得部321が取得した撮像画像に基づいて、起立状態の乗員を検知する。まず、検知部322は、撮像画像に基づいて、公知の手法によりバス100の内部の乗員を検知する。検知部322は、検知した乗員が起立状態であるか否かを特定する。記憶部31には、座席が配置された座席エリアを示すエリア情報が予め記憶されている。検知部322は、エリア情報を記憶部31から読み出す。検知部322は、読み出したエリア情報が示す座席エリア以外の位置において検知した乗員を起立状態であると特定する。一方、検知部322は、エリア情報が示す座席エリア内の位置において検知した乗員を座席に着席している着席状態であると特定する。また、検知部322は、取得部321が取得した撮像画像を公知の方法で画像処理することにより、乗員の属性を検知してもよい。属性は、例えば、性別、年齢、身長、体格等である。例えば、検知部322は、乗員の年齢を考慮して、乗客が危険であるかを判定するために、起立状態の乗員を顔認証することにより属性の一つである年齢を検知してもよい。
[Occupant detection]
The detection unit 322 detects the standing occupant based on the captured image acquired by the acquisition unit 321 . First, the detection unit 322 detects an occupant inside the bus 100 by a known technique based on the captured image. The detection unit 322 identifies whether or not the detected occupant is standing. The storage unit 31 stores in advance area information indicating a seating area where seats are arranged. The detection unit 322 reads the area information from the storage unit 31 . The detection unit 322 identifies the occupant detected at a position other than the seat area indicated by the read area information as standing. On the other hand, the detection unit 322 identifies the occupant detected at the position within the seat area indicated by the area information as being seated on the seat. Further, the detection unit 322 may detect the attributes of the occupant by performing image processing on the captured image acquired by the acquisition unit 321 using a known method. Attributes are, for example, sex, age, height, build, and the like. For example, the detection unit 322 may detect the age, which is one of the attributes, by performing face authentication on a standing passenger in order to determine whether the passenger is in danger, considering the age of the passenger. .

検知部322は、起立状態の乗員の手の位置を検知する。例えば、検知部322は、撮像部1が生成した撮像画像を入力データとし、乗員の手の位置を含む姿勢情報を出力データとする学習済みの機械学習モデルを用いて、乗員の姿勢情報を機械学習モデルに出力させる。検知部322は、撮像画像に複数の乗員が含まれる場合には、複数の乗員の姿勢情報を機械学習モデルにそれぞれ出力させる。検知部322は、乗員の手の位置に加えて、乗員の肩や足等の他の部位の位置を含む姿勢情報を機械学習モデルに出力させてもよい。 The detection unit 322 detects the position of the hand of the standing occupant. For example, the detection unit 322 uses the captured image generated by the imaging unit 1 as input data and the posture information including the position of the occupant's hand as output data, using a trained machine learning model to automatically extract the occupant's posture information. Output to the learning model. When a plurality of passengers are included in the captured image, the detection unit 322 causes the machine learning model to output the posture information of the plurality of passengers. The detection unit 322 may cause the machine learning model to output posture information including positions of other parts of the occupant such as shoulders and feet in addition to the positions of the occupant's hands.

[支持具の位置の特定]
支持具特定部323は、バス100の内部の複数の支持具の位置を特定する。例えば、支持具特定部323は、乗員がバスに搭乗していない状態において撮像部1が生成し、取得部321が取得した撮像画像(以下、背景画像ともいう)を解析することにより、エッジを有する構造物を支持具として特定する。また、支持具特定部323は、特定した構造物のうち、背景画像において所定の色を有する構造物を支持具として特定してもよい。所定の色は、一例としては橙又は黄色である。
[Identification of the position of the support]
The support identification unit 323 identifies positions of a plurality of supports inside the bus 100 . For example, the support identifying unit 323 analyzes a captured image (hereinafter, also referred to as a background image) generated by the imaging unit 1 and acquired by the acquiring unit 321 in a state in which no passenger is on the bus, thereby identifying edges. Identify the structure as a support. Further, the support specifying unit 323 may specify, as a support, a structure having a predetermined color in the background image among the specified structures. The predetermined color is, for example, orange or yellow.

支持具特定部323は、撮像画像上において支持具の位置に対応する表示領域を設定する第1設定情報を生成して記憶部31に予め記憶させる。支持具特定部323は、取得部321が撮像画像を取得すると、第1設定情報を記憶部31から読み出し、読み出した第1設定情報に基づいて、支持具の位置を特定する。 The support specifying unit 323 generates first setting information for setting a display area corresponding to the position of the support on the captured image, and causes the storage unit 31 to store the first setting information in advance. When the acquisition unit 321 acquires the captured image, the support specifying unit 323 reads the first setting information from the storage unit 31 and specifies the position of the support based on the read first setting information.

なお、支持具特定部323は、管理者から支持具の位置を受け付けることにより支持具の位置を設定してもよい。例えば、支持具特定部323は、背景画像を表示部2に表示させ、管理者から支持具の位置を受け付けることにより、支持具の位置を設定する。 Note that the support specifying unit 323 may set the position of the support by receiving the position of the support from the administrator. For example, the support specifying unit 323 sets the position of the support by displaying a background image on the display unit 2 and receiving the position of the support from the administrator.

[利用状況の特定]
利用状況特定部324は、検知部322が検知した起立状態の乗員の支持具の利用状況を特定する。例えば、利用状況特定部324は、支持具特定部323が特定した支持具の位置と、検知部322が特定した手の位置とに基づいて、起立状態の乗員の支持具の利用状況を特定する。より詳しくは、利用状況特定部324は、支持具の位置と、起立状態の乗員の手の位置とが一致すれば、乗員が支持具を利用している状況であると特定する。利用状況特定部324は、支持具の位置と、起立状態の乗員の手の位置とが一致しなければ、乗員が支持具を利用している状況であると特定しない。また、利用状況特定部324は、支持具の位置と、起立状態の乗員の手の位置との距離が所定距離以内であれば、乗員が支持具を利用している状況であると特定してもよい。所定距離は、乗員の手が支持具を把持している場合に取り得る距離の最大値である。
[Identification of usage]
The use state identifying unit 324 identifies the use state of the supporting device of the standing occupant detected by the detecting unit 322 . For example, the usage status specifying unit 324 specifies the usage status of the support tool of the standing occupant based on the position of the support tool specified by the support tool specifying part 323 and the position of the hand specified by the detection unit 322. . More specifically, if the position of the support and the position of the hand of the occupant in the standing state match, the use status identifying unit 324 identifies that the occupant is using the support. If the position of the support does not match the position of the hand of the occupant in the standing state, the use state identification unit 324 does not identify that the occupant is using the support. In addition, if the distance between the position of the support and the position of the passenger's hand in the standing state is within a predetermined distance, the use status identifying unit 324 identifies that the occupant is using the support. good too. The predetermined distance is the maximum possible distance when the occupant's hand grips the support.

支持具がつり革の場合、所定の可動域においてつり輪が移動するため、乗員の手の位置と、支持具特定部323が特定した支持具の位置との間の距離が変動することがある。そこで、利用状況特定部324は、検知部322が検知した手の高さが吊架高さ以上である場合に、乗員が支持具を利用している状況であると特定してもよい。利用状況特定部324は、例えば、手すりよりも高い位置を示す値を吊架高さとして用いる。利用状況特定部324は、乗員の肩の高さを吊架高さとして用いてもよい。このようにして、利用状況特定部324は、支持具がつり革を含む場合に、乗員の支持具の利用状況を特定する精度を向上させることができる。 When the support is a strap, the ring moves within a predetermined range of motion, so the distance between the position of the occupant's hand and the position of the support specified by the support specifying unit 323 may fluctuate. . Therefore, the use state identification unit 324 may identify that the occupant is using the support when the height of the hand detected by the detection unit 322 is equal to or higher than the suspension height. The usage status identification unit 324 uses, for example, a value indicating a position higher than the handrail as the suspension height. The usage status identification unit 324 may use the shoulder height of the occupant as the suspension height. In this manner, the usage status identification unit 324 can improve the accuracy of identifying the usage status of the occupant's support tool when the support tool includes a strap.

[変位量に基づく利用状況の特定]
利用状況特定部324は、検知部322が検知した手の所定時間内の変位量に基づいて、乗員の支持具の利用状況を特定してもよい。図3(a)及び(b)は、手の変位量の一例を示す図である。図3(a)は、検知部322が学習済みの機械学習モデルに出力させた乗員の姿勢情報の一例を示す図である。図3(a)の例では、姿勢情報に含まれる乗員の手、ひじ、肩等の各部位の位置をそれぞれ丸印で示す。
[Specification of usage status based on displacement]
The usage status identification unit 324 may identify the usage status of the occupant's support device based on the amount of displacement of the hand detected by the detection unit 322 within a predetermined period of time. FIGS. 3A and 3B are diagrams showing an example of the amount of displacement of the hand. FIG. 3A is a diagram showing an example of occupant posture information output by the detection unit 322 to a learned machine learning model. In the example of FIG. 3A, the positions of the occupant's hands, elbows, shoulders, and other parts included in the posture information are indicated by circles.

図3(b)は、図3(a)の姿勢情報の作成に用いた撮像画像よりも後のタイミングで生成された撮像画像に対応する姿勢情報を示す図である。図3(b)は、バスの急制動により乗員が体勢をくずしたときの様子を示す。図3(b)には、図3(a)との比較のため、図3(a)に対応する手の位置をハッチングした丸印で示す。図3(b)には、図3(a)に示す手の位置を基準として、手の位置の変位を矢印で示す。 FIG. 3(b) is a diagram showing posture information corresponding to a captured image generated at a timing later than the captured image used to generate the posture information of FIG. 3(a). FIG. 3(b) shows the situation when the passenger loses his balance due to sudden braking of the bus. In FIG. 3(b), for comparison with FIG. 3(a), the hand positions corresponding to FIG. 3(a) are indicated by hatched circles. In FIG. 3(b), arrows indicate the displacement of the hand position with reference to the position of the hand shown in FIG. 3(a).

利用状況特定部324は、乗員の少なくとも一方の手の所定時間内の変位量が第1基準値以下である場合に、乗員が支持具を利用している状況であると特定する。利用状況特定部324は、乗員の手が所定時間内に動いた距離の総和を変位量として求めるものとする。 The use state identifying unit 324 identifies that the occupant is using the support when the amount of displacement of at least one hand of the occupant within a predetermined period of time is equal to or less than the first reference value. It is assumed that the usage status identification unit 324 obtains the sum total of distances that the occupant's hands have moved within a predetermined period of time as the amount of displacement.

利用状況特定部324は、例えば、記憶部31が記憶している履歴情報において支持具を把持している複数の乗員について、支持具を把持している方の手の所定時間内の変位量の平均である把持者平均値を求める。利用状況特定部324は、履歴情報において支持具を把持していない複数の乗員の手の所定時間内の変位量の平均である非把持者平均値を求める。利用状況特定部324は、把持者平均値と非把持者平均値との中間値を第1基準値として用いる。利用状況特定部324は、乗員の両方の手の所定時間内の変位量がいずれも第1基準値を超える場合に、乗員が支持具を利用していない状況であると特定する。 For example, for a plurality of occupants holding the support in the history information stored in the storage unit 31, the usage status identification unit 324 determines the amount of displacement of the hand holding the support within a predetermined time. Obtain the average value of the gripper. The usage status identification unit 324 obtains the non-holding person average value, which is the average of the amount of displacement of the hands of the occupants who do not hold the support in the history information within a predetermined period of time. The usage status identification unit 324 uses the intermediate value between the average value of the holder and the average value of the non-holder as the first reference value. The use state identifying unit 324 identifies that the occupant is not using the support when the amount of displacement of both hands of the occupant within a predetermined period of time exceeds the first reference value.

このようにして、利用状況特定部324は、支持具の位置の情報を用いることなく、乗員が支持具を利用しているか否かを判定する。このため、管理者は、支持具の位置を設定する作業を省略することができる。また、利用状況特定部324は、乗員の肩や足等の全身の各部位の所定時間内の変位量の平均が第2基準値を超える場合に、乗員が支持具を利用していない状況であると特定してもよい。 In this manner, the use status identification unit 324 determines whether or not the occupant is using the support without using the positional information of the support. Therefore, the administrator can omit the work of setting the position of the support. In addition, if the average amount of displacement of each part of the occupant's whole body, such as the shoulders and legs, within a predetermined period of time exceeds the second reference value, the usage status identifying unit 324 determines that the occupant is not using the support. It may be specified that there is

利用状況特定部324は、例えば、履歴情報において支持具を把持している乗員の全身の各部位の所定時間内の変位量の平均値を乗員ごとに求め、求めた平均値の複数の乗員における平均値を把持者平均値として求める。利用状況特定部324は、支持具を把持していない乗員の全身の各部位の所定時間内の変位量の平均値を乗員ごとに求め、求めた平均値の複数の乗員における平均値を非把持者平均値として求める。利用状況特定部324は、把持者平均値と非把持者平均値との中間値を第2基準値として用いる。 For example, the usage status identification unit 324 obtains the average value of the amount of displacement of each part of the whole body of the occupant holding the support in the history information within a predetermined time period for each occupant, and calculates the calculated average value for the plurality of occupants. The average value is obtained as the gripper average value. The usage status identification unit 324 obtains the average value of the amount of displacement of each part of the whole body of the occupant who is not gripping the support within a predetermined period of time for each occupant, and calculates the average value of the obtained average values for a plurality of occupants who are not gripping the support. It is calculated as the average value for each individual. The usage status identification unit 324 uses the intermediate value between the average value of the holder and the average value of the non-holder as the second reference value.

[危険な状態であるかの判定]
判定部325は、検知部322が特定した起立状態の乗員の支持具の利用状況に基づいて、バス100の内部の乗員が危険な状態であるかを判定する。判定部325は、検知部322が特定した起立状態の乗員が支持具を利用していない状況であることを利用状況特定部324が特定したことを条件として、当該乗員が危険な状態であると判定する。判定部325は、判定結果を通知部326へ出力する。
[Determination of Dangerous State]
The determination unit 325 determines whether the occupant inside the bus 100 is in a dangerous state based on the usage status of the supporting device of the standing occupant identified by the detection unit 322 . The determination unit 325 determines that the occupant is in a dangerous state on the condition that the usage state identification unit 324 identifies that the occupant in the standing state identified by the detection unit 322 is not using the support. judge. The determination section 325 outputs the determination result to the notification section 326 .

また、判定部325は、起立状態の乗員が、支持具を利用していない状況であることを特定したことを条件として、乗員が危険な状態であるかを判定したが、これに限らない。判定部325は、さらに、検知部322が検知した乗員の属性が所定条件を満たすかに基づいて、乗員は危険な状態であるかを判定してもよい。属性は、例えば、性別、年齢、身長、体格等である。例えば、判定部325は、起立状態の乗員が支持具を利用していない状況であることを特定したことに加えて、検知部322が検知した乗員の年齢が第1年齢以上または第2年齢未満であることを条件として、乗員は危険な状態であると判定してもよい。第1年齢は、例えば65歳である。第2年齢は、第1年齢よりも低い年齢である。第2年齢は、例えば12歳である。 Further, the determining unit 325 determines whether the occupant is in a dangerous state on the condition that the occupant in the standing state is not using the support, but the present invention is not limited to this. The determination unit 325 may further determine whether the occupant is in a dangerous state based on whether the attribute of the occupant detected by the detection unit 322 satisfies a predetermined condition. Attributes are, for example, sex, age, height, build, and the like. For example, the determination unit 325 determines that the occupant in the standing state is not using the support, and the age of the occupant detected by the detection unit 322 is greater than or equal to the first age or less than the second age. , it may be determined that the occupant is in a dangerous condition. The first age is, for example, 65 years old. The second age is an age lower than the first age. The second age is, for example, 12 years old.

一方、判定部325は、起立状態の乗員が支持具を利用していない状況であることを特定した場合であっても、検知部322が検知した乗員の年齢が第1年齢未満であって第2年齢以上である場合に、危険な状態でないと判定してもよい。このようにして、判定部325は、転倒等により大きなケガをしにくい年齢層の乗員を危険性の判定から除外することにより、過剰な通知を抑制することができる。 On the other hand, even when the determination unit 325 identifies that the occupant in the standing state is not using the support, the age of the occupant detected by the detection unit 322 is less than the first age and the age of the occupant is less than the first age. If the child is two years old or older, it may be determined that the child is not in a dangerous condition. In this way, the determination unit 325 can suppress excessive notifications by excluding occupants in the age group who are less likely to be seriously injured due to a fall or the like from the risk determination.

通知部326は、バス100の乗員は危険な状態であると判定部325が判定した場合に、乗員が危険な状態であることを示すメッセージを表示部2に表示する。 The notification unit 326 displays a message indicating that the occupant of the bus 100 is in a dangerous condition on the display unit 2 when the determination unit 325 determines that the occupant of the bus 100 is in a dangerous condition.

[判定装置による安全性の判定の処理手順]
図4は、判定装置3によるバス100の乗員の安全性の判定の処理手順を示すフローチャートである。この処理手順は、例えば、バス100が乗員を搭乗させて走行している間に開始する。
[Processing procedure for safety judgment by judging device]
FIG. 4 is a flow chart showing a processing procedure for judging the safety of the passengers of the bus 100 by the judging device 3. As shown in FIG. This processing procedure is started, for example, while the bus 100 is running with passengers on board.

まず、取得部321は、撮像部1が生成したバス100の内部の撮像画像を取得する(S101)。検知部322は、取得部321が取得した撮像画像に基づいて、バス100の乗員を検知する(S102)。判定部325は、乗員が起立状態であることを検知部322が特定したか否かを判定する(S103)。利用状況特定部324は、乗員が起立状態であることを検知部322が特定した場合(S103のYES)、乗員の支持具の利用状況を特定する(S104)。 First, the acquiring unit 321 acquires a captured image of the inside of the bus 100 generated by the imaging unit 1 (S101). The detection unit 322 detects the occupant of the bus 100 based on the captured image acquired by the acquisition unit 321 (S102). The determination unit 325 determines whether or not the detection unit 322 has identified that the occupant is standing (S103). When the detection unit 322 identifies that the occupant is in the standing state (YES in S103), the usage status identification unit 324 identifies the usage status of the occupant's support (S104).

判定部325は、乗員が支持具を利用している状況であることを利用状況特定部324が特定したか否かを判定する(S105)。判定部325は、乗員が支持具を利用している状況であることを利用状況特定部324が特定していないと判定した場合(S105のNO)、乗員は危険な状態であると判定する(S106)。判定部325は、検知部322が検知した他の乗員はいるか否かを判定する(S107)。判定部325は、S107の判定において検知部322が検知した他の乗員はいないと判定した場合に(S107のNO)、処理を終了する。 The determination unit 325 determines whether or not the use state identification unit 324 has identified that the occupant is using the support (S105). If the determination unit 325 determines that the usage situation identification unit 324 has not identified that the occupant is using the support (NO in S105), the determination unit 325 determines that the occupant is in a dangerous state ( S106). The determination unit 325 determines whether or not there is another passenger detected by the detection unit 322 (S107). If the determination unit 325 determines that there is no other passenger detected by the detection unit 322 in the determination of S107 (NO in S107), the process ends.

判定部325は、S103の判定において乗員が着席状態であることを検知部322が特定した場合(S103のNO)、S107の判定に移る。判定部325は、S105の判定において乗員が支持具を利用している状況であることを利用状況特定部324が特定したと判定した場合(S105のYES)、S107の判定に移る。判定部325は、S107の判定において検知部322が検知した他の乗員はいると判定した場合に(S107のYES)、S103の判定に戻る。 If the detection unit 322 determines that the passenger is seated in the determination of S103 (NO in S103), the determination unit 325 proceeds to determination of S107. If the determination unit 325 determines that the use state identification unit 324 has identified that the occupant is using the support in the determination of S105 (YES in S105), the determination unit 325 proceeds to the determination of S107. If the determination unit 325 determines that there is another passenger detected by the detection unit 322 in the determination of S107 (YES in S107), the determination unit 325 returns to the determination of S103.

[本実施形態の判定装置による効果]
本実施形態によれば、利用状況特定部324は、支持具の利用状況を特定し、判定部325は、利用状況特定部324が特定した利用状況に基づいて、乗員が危険な状態であるかを判定する。このため、判定部325は、乗員が支持具を把持していて安全な状態である場合に、乗員が危険な状態であると誤って判定することを抑制することができ、乗員の安全性の判定精度を向上させることができる。
[Effects of the determination device of the present embodiment]
According to the present embodiment, the usage status identification unit 324 identifies the usage status of the support, and the determination unit 325 determines whether the occupant is in a dangerous state based on the usage status identified by the usage status identification unit 324. judge. Therefore, the determination unit 325 can suppress erroneous determination that the occupant is in a dangerous state when the occupant is holding the support and is in a safe state. Judgment accuracy can be improved.

本実施形態では、通知部326は、判定部325が乗員は危険な状態であると判定した場合に、乗員が危険な状態であることを示すメッセージを表示部2に表示する場合の例について説明した。しかしながら、本発明は、メッセージを表示する例に限定されない。例えば、挙動制御部(不図示)は、判定部325が乗員は危険な状態であると判定した場合に、バス100の急加速等の乗客が倒れてしまうおそれがある運転を制限してもよい。例えば、挙動制御部は、判定部325が乗員は危険な状態であると判定した場合に、バス100の急加速による加速度の上限を課してもよい。一方、挙動制御部は、判定部325が乗員は危険な状態であると判定していない場合に、バス100の急加速による加速度の上限を課さない。 In the present embodiment, an example will be described in which the notification unit 326 displays a message indicating that the occupant is in a dangerous state on the display unit 2 when the determination unit 325 determines that the occupant is in a dangerous state. bottom. However, the invention is not limited to examples of displaying messages. For example, when the determination unit 325 determines that the occupants are in a dangerous state, the behavior control unit (not shown) may limit driving such as sudden acceleration of the bus 100 that may cause the passengers to collapse. . For example, the behavior control unit may impose an upper limit on the acceleration due to rapid acceleration of the bus 100 when the determination unit 325 determines that the passenger is in a dangerous state. On the other hand, the behavior control unit does not impose an upper limit on the acceleration due to sudden acceleration of the bus 100 when the determination unit 325 does not determine that the occupant is in a dangerous state.

また、挙動制御部は、乗員が倒れてしまうおそれがある急制動を制限してもよいが、衝突等の危険性がある場合には、急制動を制限しなくてもよい。運転者は、乗員が危険な状態であることを示すメッセージが表示部2に表示された場合、急制動等により乗員が転倒してしまうようなことを考慮しながら、早期に、バス100を制動させて停止させる。 The behavior control unit may limit sudden braking that may cause the passenger to fall down, but may not limit sudden braking if there is a risk of collision or the like. When a message indicating that the occupant is in danger is displayed on the display unit 2, the driver brakes the bus 100 early while considering that the occupant may fall due to sudden braking or the like. to stop.

<支持具の有効セグメントを特定する変形例>
支持具特定部323が支持具として特定するエッジを有する構造物には、乗員が把持するのに適していない部位も含まれる可能性がある。そこで、支持具特定部323は、支持具を複数のセグメントに分割し、これらのセグメントのうち、所定値以上の高さに配置されたセグメントを支持具の有効セグメントとしてもよい。
<Modified Example for Identifying Effective Segments of Support Tool>
A structure having an edge identified as a support by the support identification unit 323 may include a portion that is not suitable for the passenger to grip. Therefore, the support specifying unit 323 may divide the support into a plurality of segments, and among these segments, the segment arranged at a height equal to or higher than a predetermined value may be set as the effective segment of the support.

まず、支持具特定部323は、特定した構造物を複数のセグメントに分割する。例えば、支持具特定部323は、各セグメントに含まれる画素数がなるべく一定になるように、支持具を複数のセグメントに分割する。支持具特定部323は、これらのセグメントのうち、所定値以上の高さに配置されたセグメントを支持具の有効セグメントとする。支持具特定部323は、撮像画像において支持具に含まれる有効セグメントの位置に対応する表示領域を設定する第2設定情報を生成する。支持具特定部323は、例えば、座席のひじ掛けよりも低い高さに対応する値を所定値として用いる。 First, the support identifying unit 323 divides the identified structure into a plurality of segments. For example, the support specifying unit 323 divides the support into a plurality of segments so that the number of pixels included in each segment is as constant as possible. Of these segments, the support specifying unit 323 determines that the segments arranged at a height equal to or higher than a predetermined value are valid segments of the support. The support specifying unit 323 generates second setting information for setting a display area corresponding to the position of the effective segment included in the support in the captured image. The support identifying unit 323 uses, for example, a value corresponding to a height lower than the armrest of the seat as the predetermined value.

また、支持具特定部323は、撮像画像上において把持される回数が多い支持具の有効セグメントの位置に対応する表示領域を設定する第2設定情報を生成し、この第2設定情報を記憶部31に記憶させてもよい。記憶部31には、過去の複数の撮像画像において検知部322が検知した手の位置の履歴を示す履歴情報を記憶されている。例えば、記憶部31には、直近の数週間のバス100の走行中に生成された撮像画像に対応する履歴情報が記憶されている。この履歴情報は、例えば、検知部322が検知した複数の手の位置をそれぞれ一定時間以上追跡することにより作成される。 In addition, the support specifying unit 323 generates second setting information for setting a display area corresponding to the position of the effective segment of the support that is frequently gripped on the captured image, and stores this second setting information in the storage unit. 31 may be stored. The storage unit 31 stores history information indicating a history of hand positions detected by the detection unit 322 in a plurality of past captured images. For example, the storage unit 31 stores history information corresponding to captured images generated while the bus 100 is running for the last several weeks. This history information is created, for example, by tracking the positions of a plurality of hands detected by the detection unit 322 for a certain period of time or more.

支持具特定部323は、履歴情報が示す複数の手の位置のそれぞれと支持具のセグメントの位置とが一致する場合に、乗員が支持具を把持していると判定し、把持回数を計数する。支持具特定部323は、計数した把持回数に基づいて、有効セグメントを特定する。例えば、支持具特定部323は、把持回数が閾値以上であるセグメントを有効セグメントとして特定する。支持具特定部323は、例えば、履歴情報の作成に用いた撮像画像の数と、撮像画像に含まれる乗員の延べ人数とに基づいて、閾値を定めるものとする。 The support specifying unit 323 determines that the occupant is gripping the support when each of the positions of the plurality of hands indicated by the history information matches the position of the segment of the support, and counts the number of grips. . The support identifying unit 323 identifies valid segments based on the counted number of grips. For example, the support identifying unit 323 identifies, as valid segments, segments for which the number of gripping times is equal to or greater than a threshold. The support identifying unit 323 determines the threshold based on, for example, the number of captured images used to create the history information and the total number of passengers included in the captured images.

図5は、支持具特定部323による有効セグメントの特定方法について説明するための図である。図5には、支持具を分割したセグメントA~Gをそれぞれ示す。記憶部31が記憶している履歴情報において手の位置が多く分布している範囲Rをハッチングして示す。セグメントA~Dは、範囲Rと重なっているため、セグメントA~Dの把持回数は閾値以上であったものとする。この場合、支持具特定部323は、セグメントA~Dを有効セグメントとして特定する。一方、セグメントE~Gは、範囲Rと重なっていないため、セグメントE~Gの把持回数は閾値未満であったものとする。この場合、支持具特定部323は、セグメントE~Gを有効セグメントとして特定しない。 FIG. 5 is a diagram for explaining a method of identifying effective segments by the support identifying unit 323. As shown in FIG. FIG. 5 shows segments A to G obtained by dividing the support. A range R in which many hand positions are distributed in the history information stored in the storage unit 31 is indicated by hatching. Since the segments A to D overlap with the range R, it is assumed that the number of gripping times of the segments A to D is equal to or greater than the threshold. In this case, the support identifying unit 323 identifies segments A to D as valid segments. On the other hand, since segments E to G do not overlap range R, it is assumed that the number of gripping times of segments E to G is less than the threshold. In this case, the support identifying unit 323 does not identify segments E to G as valid segments.

支持具特定部323は、撮像画像上において特定した有効セグメントの表示領域を示す第2設定情報を記憶部31に記憶させておく。支持具特定部323は、取得部321が撮像画像を取得すると、第2設定情報を記憶部31から読み出し、読み出した第2設定情報に基づいて、支持具の有効セグメントを特定してもよい。 The support specifying unit 323 causes the storage unit 31 to store the second setting information indicating the display area of the specified valid segment on the captured image. When the acquisition unit 321 acquires the captured image, the support specifying unit 323 may read the second setting information from the storage unit 31 and specify the effective segment of the support based on the read second setting information.

利用状況特定部324は、支持具の位置の代わりに、支持具の有効セグメントの位置を用いて、乗員の支持具の利用状況を特定する。利用状況特定部324は、取得部321が撮像画像を取得すると、この撮像画像において検知部322が特定した手の位置と、支持具特定部323が特定した支持具の有効セグメントの位置とに基づいて、乗員の支持具の利用状況を特定する。 The use state identifying unit 324 identifies the use state of the support device by the occupant using the position of the effective segment of the support device instead of the position of the support device. When the acquisition unit 321 acquires the captured image, the usage status identification unit 324 detects the position of the hand identified by the detection unit 322 and the position of the effective segment of the support identified by the support identification unit 323 in the captured image. to identify the use of occupant support.

例えば、利用状況特定部324は、支持具の有効セグメントの位置と、手の位置とが一致するか否かに基づいて、乗員の支持具の利用状況を特定する。このようにして、利用状況特定部324は、乗員が支持具の有効セグメントを把持しているか否かを特定するので、乗員の手が支持具の一部と偶然重なって撮像画像が生成された場合等に、乗員が支持具を利用していると誤って特定することを抑制することができる。 For example, the usage status identification unit 324 identifies the usage status of the occupant's support device based on whether or not the position of the effective segment of the support device matches the position of the hand. In this way, the use status identifying unit 324 identifies whether or not the occupant is gripping the effective segment of the support, so that the captured image is generated when the occupant's hand accidentally overlaps a part of the support. In some cases, it is possible to suppress erroneous identification that the occupant is using the support.

本実施形態では、検知部322は、撮像部1が生成した撮像画像を入力データとし、乗員の手の位置を含む姿勢情報を出力データとする学習済みの機械学習モデルを用いて、乗員の姿勢情報を機械学習モデルに出力させる例について説明した。検知部322は、乗員の検知を同じ機械学習モデルにより行ってもよい。 In the present embodiment, the detection unit 322 uses a trained machine learning model that uses the captured image generated by the imaging unit 1 as input data and the posture information including the position of the occupant's hand as output data to detect the posture of the occupant. An example of outputting information to a machine learning model was described. The detection unit 322 may detect the occupant using the same machine learning model.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist thereof. be. For example, all or part of the device can be functionally or physically distributed and integrated in arbitrary units. In addition, new embodiments resulting from arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment caused by the combination has the effect of the original embodiment.

1 撮像部
2 表示部
3 判定装置
31 記憶部
32 制御部
100 バス
321 取得部
322 検知部
323 支持具特定部
324 利用状況特定部
325 判定部
326 通知部
1 imaging unit 2 display unit 3 determination device 31 storage unit 32 control unit 100 bus 321 acquisition unit 322 detection unit 323 support tool identification unit 324 usage identification unit 325 determination unit 326 notification unit

Claims (5)

バスの内部を撮像した撮像画像を取得する取得部と、
前記取得部が取得した前記撮像画像に基づいて、起立状態の乗員を検知して当該乗員の手の位置を特定する検知部と、
前記検知部が検知した前記乗員の前記バスに設けられている前記乗員を支持するための支持具の利用状況を特定する利用状況特定部と、
前記利用状況特定部が特定した前記利用状況に基づいて、前記乗員が危険であるかを判定する判定部と、
過去の複数の前記撮像画像において前記検知部が検知した前記手の位置の履歴を示す履歴情報を記憶している記憶部と、
乗員がバスに搭乗していない状態の前記撮像画像を解析することにより、エッジを有する構造物を支持具として特定し、かつ、前記支持具を複数のセグメントに分割し、前記履歴情報が示す複数の前記手の位置のそれぞれと、前記セグメントの位置とが一致する回数に基づいて、前記支持具の有効セグメントを特定する支持具特定部と、を備え、
前記利用状況特定部は、前記取得部が前記撮像画像を取得すると、当該撮像画像において前記検知部が特定した前記手の位置と、特定した前記有効セグメントの位置とに基づいて、前記乗員の前記支持具の利用状況を特定する、
判定装置。
an acquisition unit that acquires a captured image of the inside of the bus;
a detection unit that detects an occupant in a standing state based on the captured image acquired by the acquisition unit and specifies the position of the occupant's hand ;
a usage status identification unit that identifies the usage status of the support member provided on the bus for supporting the occupant detected by the detection unit;
a determination unit that determines whether the occupant is in danger based on the usage situation specified by the usage situation specifying unit;
a storage unit that stores history information indicating a history of positions of the hand detected by the detection unit in a plurality of past captured images;
A structure having an edge is identified as a support by analyzing the captured image in a state where no occupant is on the bus, the support is divided into a plurality of segments, and a plurality of segments indicated by the history information are identified. a support identification unit that identifies valid segments of the support based on the number of times each of the hand positions and the position of the segment match,
When the acquisition unit acquires the captured image, the usage situation specifying unit determines the position of the occupant based on the position of the hand specified by the detection unit and the specified position of the effective segment in the captured image. identify the use of supports,
judgment device.
記利用状況特定部は、前記手の高さが吊架高さ以上である場合に、前記乗員が前記支持具を利用している状況であると特定する、
請求項1に記載の判定装置。
The usage status identifying unit identifies that the occupant is using the support when the height of the hand is equal to or higher than the suspension height,
The determination device according to claim 1.
記利用状況特定部は、前記手の所定時間内の変位量に基づいて、前記乗員の前記支持具の利用状況を特定する、
請求項1に記載の判定装置。
The usage status identifying unit identifies the usage status of the support device by the occupant based on the amount of displacement of the hand within a predetermined time.
The determination device according to claim 1 .
前記撮像画像において所定の色を有する構造物を前記支持具として特定する支持具特定部をさらに備え
記利用状況特定部は、前記支持具特定部が特定した前記支持具の位置と、前記検知部が検知した前記手の位置とに基づいて、前記乗員の前記支持具の利用状況を特定する、
請求項1又は2に記載の判定装置。
further comprising a support identification unit that identifies a structure having a predetermined color in the captured image as the support ,
The usage status identifying unit identifies the usage status of the support device of the occupant based on the position of the support device identified by the support device identification unit and the position of the hand detected by the detection unit. ,
The determination device according to claim 1 or 2 .
前記検知部は、前記乗員の属性を検知し、
前記判定部は、前記検知部が検知した前記乗員の属性が所定条件を満たすかに基づいて、前記乗員が危険であるかを判定する、
請求項1からのいずれか一項に記載の判定装置。
The detection unit detects attributes of the occupant,
The determination unit determines whether the occupant is in danger based on whether the attribute of the occupant detected by the detection unit satisfies a predetermined condition.
The determination device according to any one of claims 1 to 4 .
JP2020051513A 2020-03-23 2020-03-23 judgment device Active JP7306303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020051513A JP7306303B2 (en) 2020-03-23 2020-03-23 judgment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020051513A JP7306303B2 (en) 2020-03-23 2020-03-23 judgment device

Publications (2)

Publication Number Publication Date
JP2021147001A JP2021147001A (en) 2021-09-27
JP7306303B2 true JP7306303B2 (en) 2023-07-11

Family

ID=77850693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020051513A Active JP7306303B2 (en) 2020-03-23 2020-03-23 judgment device

Country Status (1)

Country Link
JP (1) JP7306303B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015105833A (en) 2013-11-28 2015-06-08 本田技研工業株式会社 Route search system
JP2015147467A (en) 2014-02-05 2015-08-20 シャープ株式会社 Portable information processing terminal and program for controlling information processing terminal
JP2018144544A (en) 2017-03-02 2018-09-20 株式会社デンソー Traveling control system for vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016062414A (en) * 2014-09-19 2016-04-25 クラリオン株式会社 In-vehicle monitoring device and in-vehicle monitoring system
JP6607164B2 (en) * 2016-10-11 2019-11-20 株式会社デンソー Vehicle safe driving system
JP6962280B2 (en) * 2018-06-26 2021-11-05 株式会社デンソー Vehicle control method, vehicle control system, and vehicle control device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015105833A (en) 2013-11-28 2015-06-08 本田技研工業株式会社 Route search system
JP2015147467A (en) 2014-02-05 2015-08-20 シャープ株式会社 Portable information processing terminal and program for controlling information processing terminal
JP2018144544A (en) 2017-03-02 2018-09-20 株式会社デンソー Traveling control system for vehicle

Also Published As

Publication number Publication date
JP2021147001A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
JP6303907B2 (en) Driver monitoring device
US9822576B2 (en) Method for operating an activatable locking device for a door and/or a window, securing device for a vehicle, vehicle
CN107021059A (en) The system and method stretched out for ribbon
EP3326869B1 (en) Passenger information detection device and program
CN104554136B (en) Safety prompting system and method based on vehicle mounted guidance and camera
EP3251889A1 (en) Sitting position adjustment system
JP2014092965A (en) Occupant monitoring device
US20160046296A1 (en) Method and device for assigning a driver of a vehicle to a driver class stored in the vehicle and representing a specific driving behaviour of the driver, and computer program product for that purpose
US8897969B2 (en) Collision safety control apparatus and method for vehicle
KR20170013341A (en) Occupant protection method and occupant protection device of a vehicle
CN106985782A (en) Vehicular communication system, vehicle, communication system, the method for handling car crash data
JP6814977B2 (en) Image processing device, detection device, learning device, image processing method, and image processing program
JP7306303B2 (en) judgment device
JP2017105224A (en) Vehicle control apparatus
JP2004053324A (en) Collision safety controller for automobile
CN111204301A (en) Riding safety control method and electronic equipment
JP2017205368A (en) Driver state detector
JP6838459B2 (en) Safe driving promotion device and safe driving promotion method
WO2019188060A1 (en) Detection device and detection method
JP2018156212A (en) Physique determination device, physique determination method and program
WO2022065267A1 (en) Vehicle passenger determination device and vehicle passenger determination method
JP2019177853A (en) Fixing device detector and fixing device detection method
CN114148223B (en) Child riding safety reminding method and device
CN115416609A (en) Vehicle safety belt wearing detection method, device, equipment and storage medium
CN114852002A (en) Side impact protection method, device, system and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230612

R150 Certificate of patent or registration of utility model

Ref document number: 7306303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150