WO2022195715A1 - 乗員検知装置及び乗員検知システム - Google Patents
乗員検知装置及び乗員検知システム Download PDFInfo
- Publication number
- WO2022195715A1 WO2022195715A1 PCT/JP2021/010587 JP2021010587W WO2022195715A1 WO 2022195715 A1 WO2022195715 A1 WO 2022195715A1 JP 2021010587 W JP2021010587 W JP 2021010587W WO 2022195715 A1 WO2022195715 A1 WO 2022195715A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- occupant
- detection
- driver
- unit
- vehicle
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 1106
- 238000003384 imaging method Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 description 87
- 230000008569 process Effects 0.000 description 87
- 230000036626 alertness Effects 0.000 description 43
- 230000036449 good health Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 17
- 206010062519 Poor quality sleep Diseases 0.000 description 14
- 230000001815 facial effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 206010041349 Somnolence Diseases 0.000 description 9
- 230000037007 arousal Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000036541 health Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 210000000744 eyelid Anatomy 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 238000004378 air conditioning Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- NOQGZXFMHARMLW-UHFFFAOYSA-N Daminozide Chemical compound CN(C)NC(=O)CCC(O)=O NOQGZXFMHARMLW-UHFFFAOYSA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/023—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
- B60R16/0231—Circuits relating to the driving or the functioning of the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Definitions
- an occupant detection device that detects both occupants of a driver and a fellow passenger, if necessary, only one of the occupants of the driver or the fellow occupant is targeted for detection. Processing load of processing can be reduced.
- the detection target determination unit 3 determines that the detection targets of the occupant detection unit 4 are both occupants, and when the driver and the fellow passenger are seated on the seats. Alternatively, it may be determined that one of the occupants, that is, the driver, is to be detected by the occupant detection unit 4 .
- the seating of the driver and fellow passengers on the seats may be detected by, for example, a seating sensor (not shown) mounted on the vehicle. After the driver and fellow passengers are seated on the seats, the vehicle starts to be driven, that is, the safety during driving is greatly affected, so it is preferable to set the driver as the detection target. Therefore, when it is detected that the driver and the passenger are seated on the seat, if the detection target of the occupant detection unit 4 is the driver, the occupant detection process can be performed when the safety during driving is greatly affected. It can reduce the load.
- the detection area 62 corresponding to the passenger's seat 32 is, for example, a rectangular area set within the captured image 60 so as to include the headrest 52 of the passenger's seat 32 .
- the position of the upper side of the detection area 62 is set at a position separated from the upper side surface of the headrest 52 of the front passenger seat 32 toward the ceiling of the passenger compartment by a predetermined distance (for example, about 5 cm).
- the position of the right side of the detection area 62 is set to a position separated from the right side surface of the headrest 52 to the right by a predetermined distance (for example, about 10 cm).
- the attribute estimation unit 12 uses the occupant detection result of the occupant detection unit 4 to determine whether the occupant detected by the occupant detection unit 4 is an adult or an infant.
- Estimate attributes such as The attribute estimating unit 12 uses feature information such as the position and size of the occupant's facial region and the occupant's shoulder width to determine attributes such as age information, sex, and seating position of the occupant detected by the occupant detection unit 4. to estimate Also, the attribute estimation processing by the attribute estimation unit 12 can use various known algorithms, and is not limited to the above example.
- the authentication result by the occupant authentication unit 11, the attribute estimation result by the attribute estimation unit 12, and the state estimation result by the state estimation unit may be output to the vehicle-side control device 200.
- the seat position adjustment unit (not shown) of the vehicle-side control device 200 adjusts the seat position using the authentication result of the occupant authentication unit 11, the seat position or the like can be set in advance for a specific individual. Position can be adjusted.
- the infant abandonment notification function of the notification unit (not shown) of the vehicle-side control device 200 is activated. If it is turned ON, it is possible to prevent children from being left behind.
- the occupant detection unit 4 When the occupant detection unit 4 acquires a determination result indicating that the detection target is the driver from the detection target determination unit 3, the occupant detection unit 4 performs occupant detection processing with the driver as the detection target.
- the image acquiring section 1 acquires a captured image from the imaging device 20 (ST104).
- the detection area setting section 5 of the occupant detection section 4 sets the detection area in the area corresponding to the driver's seat in the captured image (ST105).
- the area set as the area corresponding to the driver's seat will be referred to as the first detection area.
- an image acquisition unit 1 As shown in FIG. 6A, an image acquisition unit 1, a vehicle information acquisition unit 2, a detection target determination unit 3, an occupant detection unit 4, a detection area setting unit 5, a face area detection unit 6, a feature information detection unit 7, and an occupant authentication unit.
- the processing circuit 10a can be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC ( Application Specific Integrated Circuit), FPGA (Field-programmable Gate Array), or a combination of these.
- the state estimation unit 13 acquires characteristic information of the occupant from the occupant detection unit 4, and uses, for example, the orientation of the occupant's face, the size of the occupant's face area, etc., to determine the occupant's to estimate the health of
- the state estimating unit 13 estimates the degree of health of the occupant to be lower as the occupant's posture becomes abnormal, for example, when the occupant leans downward or collapses.
- FIG. 9 is a flow chart showing an operation example of the occupant detection device 90 according to the third embodiment.
- the vehicle information acquisition unit 2 acquires a signal indicating that one of the doors of the vehicle has been opened and a signal indicating that the engine of the vehicle has started from the vehicle-side control device 200. If so, the occupant detection process is started.
- the occupant detection device 90 for example, the vehicle information acquisition unit 2 receives from the vehicle-side control device 200 the engine of the vehicle.
- the operation of the occupant detection process is terminated.
- the occupant detection unit 4 When the occupant detection unit 4 acquires the determination result indicating that the detection target is the driver from the detection target determination unit 8, the occupant detection unit 4 proceeds to the process of ST301. is detected, and the occupant detection process is performed. That is, the image acquiring section 1 acquires a captured image from the imaging device 20 (ST301). Next, detection area setting section 5 sets a first detection area in the captured image (ST302). Then, the face area detection section 6 of the occupant detection section 4 detects a face area in which the face of the driver exists in the detection area (ST303). Further, the feature information detection section 7 of the occupant detection section 4 performs feature information detection processing on the driver to detect the feature information of the driver (ST304).
- the face area detection unit 6 of the occupant detection unit 4 detects the face area where the occupant's face exists, that is, the face area where the driver's face and the passenger's face exist, in the set first detection area and second detection area. A region is detected (ST311). Furthermore, the feature information detection unit 7 of the occupant detection unit 4 performs feature information detection processing on the occupants whose face regions have been detected, that is, the driver and fellow passengers, and detects the feature information of the driver and fellow passengers ( ST312). The feature information of the driver and fellow passengers obtained by the feature information detection process may be output to at least one of the passenger authentication unit 11, the attribute estimation unit 12, and the state estimation unit 13.
- the detection target determination unit 8 determines that the detection target is the driver, and in the processing of ST301 to ST305, the occupant detection unit 4 detects the driver. Then, in the processing of ST306 again, When the detection target determination unit 8 determines that the detection targets are the driver and the fellow passengers, the occupant detection unit 4 detects the other passenger who is different from the one passenger in addition to the driver who is one passenger. is to be detected. In this way, since the object to be detected by the occupant detection unit 4 changes at any time, the processing load can be adjusted even when the occupant detection device 90 is in operation.
- the feature information detection unit 7 of the occupant detection unit 4 performs feature information detection processing on the occupants whose face regions have been detected, that is, the driver and fellow passengers, and detects the feature information of the driver and fellow passengers ( ST404)
- the feature information of the driver and fellow passengers obtained by the feature information detection process may be output to at least one of the passenger authentication section 11, the attribute estimation section 12, and the state estimation section 13. Then, the operation of the occupant detection device 90 proceeds to the processing of ST405.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、実施の形態1に係る乗員検知システム100の構成例を示すブロック図である。乗員検知システム100は、乗員検知装置10及び撮像装置20を備えており、乗員検知装置10及び撮像装置20は、車両に搭載される。また、乗員検知装置10は、乗員検知装置10が搭載された車両における、空調機器、音響機器、ナビゲーション装置、報知部等の車載機器、及びエンジン等を制御する車両側制御装置200と接続されている。
実施の形態2に係る乗員検知装置10は、実施の形態1と同様に、撮像画像を取得する画像取得部1と、撮像画像内の運転者及び同乗者を検知可能な乗員検知部4と、乗員検知部4の検知対象を、運転者及び同乗者のうちの一方の乗員とするか、運転者及び同乗者の両方の乗員とするかを判定する検知対象判定部3とを備える。本実施の形態では、車両が走行している場合には一方の乗員を検知対象とし、車両が停止している場合には両方の乗員を検知対象とする点が、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
実施の形態3に係る乗員検知装置90は、実施の形態1と同様に、撮像画像を取得する画像取得部1と、撮像画像内の運転者及び同乗者を検知可能な乗員検知部4と、乗員検知部4の検知対象を、運転者及び同乗者のうちの一方の乗員とするか、運転者及び同乗者の両方の乗員とするかを判定する検知対象判定部8とを備える。本実施の形態では、運転者の状態が正常でない場合、一方の乗員、すなわち運転者を検知対象とし、運転者の状態が正常である場合、両方の乗員、すなわち運転者及び同乗者を検知対象とする点が、実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
実施の形態4に係る乗員検知装置90は、実施の形態1と同様に、撮像画像を取得する画像取得部1と、撮像画像内の運転者及び同乗者を検知可能な乗員検知部4と、乗員検知部4の検知対象を、運転者及び同乗者のうちの一方の乗員とするか、運転者及び同乗者の両方の乗員とするかを判定する検知対象判定部8とを備える。本実施の形態では、運転者の状態が正常である場合、一方の乗員、すなわち同乗者を検知対象とし、運転者の状態が正常でない場合、両方の乗員、すなわち運転者及び同乗者を検知対象とする点が実施の形態1と異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
Claims (17)
- 車両の運転席に存在する運転者と、前記車両の助手席又は後席に存在する同乗者とを撮像範囲に含む撮像装置から、撮像画像を取得する画像取得部と、
前記画像取得部から前記撮像画像を取得し、前記撮像画像内の前記運転者及び前記同乗者を検知可能な乗員検知部と、
前記乗員検知部の検知対象を、前記運転者及び前記同乗者のうちの一方の乗員とするか、前記運転者及び前記同乗者の両方の乗員とするかを判定する検知対象判定部と、を備え、
前記乗員検知部は、前記検知対象判定部により検知対象を前記一方の乗員とすると判定された場合、前記一方の乗員を検知し、前記検知対象判定部により検知対象を前記両方の乗員とすると判定された場合、前記両方の乗員を検知する
ことを特徴とする乗員検知装置。 - 前記乗員検知部は、前記検知対象判定部により検知対象を前記両方の乗員とすると判定され、前記両方の乗員を検知した後に、前記検知対象判定部により検知対象を前記一方の乗員とすると判定された場合、前記運転者及び前記同乗者のうち、前記一方の乗員と異なる他方の乗員を検知対象から除き、前記一方の乗員を検知する
ことを特徴とする請求項1に記載の乗員検知装置。 - 前記乗員検知部は、前記検知対象判定部により検知対象を前記一方の乗員とすると判定され、前記一方の乗員を検知した後に、前記検知対象判定部により検知対象を前記両方の乗員とすると判定された場合、前記運転者及び前記同乗者のうち、前記一方の乗員と異なる他方の乗員を検知対象に加え、前記両方の乗員を検知する
ことを特徴とする請求項1又は請求項2に記載の乗員検知装置。 - 前記検知対象判定部は、前記運転者又は前記同乗者が前記車両に乗車した場合、前記乗員検知部の検知対象を、前記両方の乗員とすると判定し、前記運転者又は前記同乗者が前記車両に乗車してから設定された時間が経過した場合、前記乗員検知部の検知対象を前記運転者とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記検知対象判定部は、前記運転者又は前記同乗者が前記車両に乗車した場合、前記乗員検知部の検知対象を、前記両方の乗員とすると判定し、前記車両に搭載された乗員の着座を検出するセンサにより、前記運転者及び前記同乗者が前記車両の座席に着座したことが検出された場合、前記乗員検知部の検知対象を前記運転者とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記乗員検知部が検知した前記同乗者を認証する乗員認証部をさらに備え、
前記検知対象判定部は、前記運転者又は前記同乗者が前記車両に乗車した場合、前記乗員検知部の検知対象を、前記両方の乗員とすると判定し、前記乗員認証部により前記同乗者が認証された場合、前記乗員検知部の検知対象を前記運転者とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記乗員検知部が検知した前記同乗者の属性を推定する属性推定部をさらに備え、
前記検知対象判定部は、前記運転者又は前記同乗者が前記車両に乗車した場合、前記乗員検知部の検知対象を、前記両方の乗員とすると判定し、前記属性推定部により前記同乗者の属性が推定された場合、前記乗員検知部の検知対象を前記運転者とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記乗員検知部が検知した前記同乗者の状態を推定する状態推定部をさらに備え、
前記検知対象判定部は、前記運転者又は前記同乗者が前記車両に乗車した場合、前記乗員検知部の検知対象を、前記両方の乗員とすると判定し、前記状態推定部により前記同乗者の状態が推定された場合、前記乗員検知部の検知対象を前記運転者とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記検知対象判定部は、前記両方の乗員が乗車している前記車両から、前記一方の乗員が降車した場合、前記乗員検知部の検知対象を、前記運転者及び前記同乗者のうち、前記一方の乗員と異なる他方の乗員とすると判定する
ことを特徴とする請求項1から請求項8のいずれか一項に記載の乗員検知装置。 - 前記検知対象判定部は、前記車両に搭載された車載機器を制御する車両側制御装置から、前記車両が停車中であることを示す情報を取得した場合、前記乗員検知部の検知対象を前記両方の乗員とすると判定し、前記車両が走行中であることを示す情報を取得した場合、前記乗員検知部の検知対象を前記運転者とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記検知対象判定部は、前記車両に搭載された車載機器を制御する車両側制御装置から、前記車両が停車中であることを示す情報を取得した場合、前記乗員検知部の検知対象を前記同乗者とすると判定し、前記車両が走行中であることを示す情報を取得した場合、前記乗員検知部の検知対象を前記両方の乗員とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記検知対象判定部は、前記車両に搭載された車載機器を制御する車両側制御装置から、前記車両が自動運転走行中であることを示す情報を取得した場合、前記乗員検知部の検知対象を前記両方の乗員とすると判定し、前記車両が手動運転走行中であることを示す情報を取得した場合、前記乗員検知部の検知対象を前記運転者とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記乗員検知部が検知した前記運転者の状態を推定する状態推定部をさらに備え、
前記検知対象判定部は、前記状態推定部の推定結果から前記運転者の状態が正常であることが示された場合、前記乗員検知部の検知対象を前記両方の乗員とすると判定し、前記状態推定部の推定結果から前記運転者の状態が正常でないことが示された場合、前記乗員検知部の検知対象を前記運転者とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記乗員検知部が検知した前記運転者の状態を推定する状態推定部をさらに備え、
前記検知対象判定部は、前記状態推定部の推定結果から前記運転者の状態が正常であることが示された場合、前記乗員検知部の検知対象を前記同乗者とすると判定し、前記状態推定部の推定結果から前記運転者の状態が正常でないことが示された場合、前記乗員検知部の検知対象を前記両方の乗員とすると判定する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記乗員検知部が検知した前記運転者の状態を示す指標値を推定する状態推定部をさらに備え、
前記検知対象判定部は、前記指標値が第1閾値未満である場合、前記乗員検知部の検知対象を前記運転者とすると判定し、
前記指標値が、前記第1閾値よりも大きい値を有する第2閾値以上である場合、前記乗員検知部の検知対象を前記同乗者とすると判定し、
前記指標値が、前記第1閾値以上かつ前記第2閾値未満である場合、前記乗員検知部の検知対象を前記両方の乗員とする
ことを特徴とする請求項1から請求項3のいずれか一項に記載の乗員検知装置。 - 前記乗員検知部は、前記撮像画像内に乗員を検知するための検知領域を設定し、縮小された前記検知領域内で乗員を検知する
ことを特徴とする請求項1から請求項15のいずれか一項に記載の乗員検知装置。 - 車両に搭載され、前記車両の運転席に存在する運転者と、前記車両の助手席又は後席に存在する同乗者とを撮像範囲に含む撮像装置と、
前記撮像装置から、撮像画像を取得する画像取得部と、
前記画像取得部から前記撮像画像を取得し、前記撮像画像内の前記運転者及び前記同乗者を検知可能な乗員検知部と、
前記乗員検知部の検知対象を、前記運転者及び前記同乗者のうちの一方の乗員とするか、前記運転者及び前記同乗者の両方の乗員とするかを判定する検知対象判定部と、を備え、
前記乗員検知部は、前記検知対象判定部により検知対象を前記一方の乗員とすると判定された場合、前記一方の乗員を検知し、前記検知対象判定部により検知対象を前記両方の乗員とすると判定された場合、前記両方の乗員を検知する
ことを特徴とする乗員検知システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/278,949 US20240233405A9 (en) | 2021-03-16 | Occupant detection device, occupant detection system, and occupant detection method | |
PCT/JP2021/010587 WO2022195715A1 (ja) | 2021-03-16 | 2021-03-16 | 乗員検知装置及び乗員検知システム |
JP2023506437A JP7391265B2 (ja) | 2021-03-16 | 2021-03-16 | 乗員検知装置、乗員検知システム及び乗員検知方法 |
DE112021006812.1T DE112021006812T5 (de) | 2021-03-16 | 2021-03-16 | Insassenerkennungsvorrichtung, Insassenerkennungssystem und Insassenerkennungsverfahren |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/010587 WO2022195715A1 (ja) | 2021-03-16 | 2021-03-16 | 乗員検知装置及び乗員検知システム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022195715A1 true WO2022195715A1 (ja) | 2022-09-22 |
Family
ID=83320129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/010587 WO2022195715A1 (ja) | 2021-03-16 | 2021-03-16 | 乗員検知装置及び乗員検知システム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7391265B2 (ja) |
DE (1) | DE112021006812T5 (ja) |
WO (1) | WO2022195715A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013153781A1 (ja) * | 2012-04-10 | 2013-10-17 | 株式会社デンソー | 感情モニタリングシステム |
JP2018173756A (ja) * | 2017-03-31 | 2018-11-08 | パナソニックIpマネジメント株式会社 | 検知装置、検知方法及び検知プログラム |
JP2018185157A (ja) * | 2017-04-24 | 2018-11-22 | パナソニックIpマネジメント株式会社 | 熱画像取得装置及び温冷感推定装置 |
JP2021037794A (ja) * | 2019-08-30 | 2021-03-11 | 株式会社デンソー | 車両制御装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8223218B2 (en) * | 2008-12-05 | 2012-07-17 | Panasonic Corporation | Face detection apparatus |
-
2021
- 2021-03-16 DE DE112021006812.1T patent/DE112021006812T5/de active Pending
- 2021-03-16 WO PCT/JP2021/010587 patent/WO2022195715A1/ja active Application Filing
- 2021-03-16 JP JP2023506437A patent/JP7391265B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013153781A1 (ja) * | 2012-04-10 | 2013-10-17 | 株式会社デンソー | 感情モニタリングシステム |
JP2018173756A (ja) * | 2017-03-31 | 2018-11-08 | パナソニックIpマネジメント株式会社 | 検知装置、検知方法及び検知プログラム |
JP2018185157A (ja) * | 2017-04-24 | 2018-11-22 | パナソニックIpマネジメント株式会社 | 熱画像取得装置及び温冷感推定装置 |
JP2021037794A (ja) * | 2019-08-30 | 2021-03-11 | 株式会社デンソー | 車両制御装置 |
Also Published As
Publication number | Publication date |
---|---|
US20240135729A1 (en) | 2024-04-25 |
JPWO2022195715A1 (ja) | 2022-09-22 |
JP7391265B2 (ja) | 2023-12-04 |
DE112021006812T5 (de) | 2023-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170334353A1 (en) | Parking Assistance System | |
JP6369487B2 (ja) | 表示装置 | |
JP6323549B2 (ja) | 車両用情報呈示装置 | |
US8264531B2 (en) | Driver's state monitoring system using a camera mounted on steering wheel | |
US7202792B2 (en) | Drowsiness detection system and method | |
US20160355190A1 (en) | Driving assist device | |
KR101950476B1 (ko) | 운전자 상태 감지 시스템, 운전자 상태 감지 방법 및 운전자 감지 시스템을 장착한 차량 | |
US11279348B2 (en) | Safety, security and control system for vehicle | |
KR102272774B1 (ko) | 차량, 및 차량의 제어방법 | |
JP2017220097A (ja) | 運転支援装置 | |
JP2020157938A (ja) | 車載監視制御装置 | |
WO2022195715A1 (ja) | 乗員検知装置及び乗員検知システム | |
JP7267467B2 (ja) | 注意方向判定装置および注意方向判定方法 | |
JP2017030578A (ja) | 自動運転制御装置、自動運転制御方法 | |
US20240233405A9 (en) | Occupant detection device, occupant detection system, and occupant detection method | |
WO2022113275A1 (ja) | 睡眠検出装置及び睡眠検出システム | |
JP7383172B2 (ja) | 車内監視装置、車内監視システム及び車内監視方法 | |
JP7441417B2 (ja) | ドライバ状態推定装置 | |
WO2022172400A1 (ja) | 車両監視装置及び車両監視システム | |
JP2021144580A (ja) | ドライバ状態推定装置 | |
JP2007204032A (ja) | 車載警報装置 | |
WO2023017595A1 (ja) | 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム | |
JP2021086412A (ja) | 乗員監視装置、乗員監視システム | |
JP7505660B2 (ja) | 乗員監視装置、乗員監視方法、及び乗員監視プログラム | |
US20200023863A1 (en) | Concentration degree determination device, concentration degree determination method, and program for determining concentration degree |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21931467 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2023506437 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 18278949 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 112021006812 Country of ref document: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21931467 Country of ref document: EP Kind code of ref document: A1 |