CN116788158A - 乘员状态监视装置 - Google Patents

乘员状态监视装置 Download PDF

Info

Publication number
CN116788158A
CN116788158A CN202310235357.7A CN202310235357A CN116788158A CN 116788158 A CN116788158 A CN 116788158A CN 202310235357 A CN202310235357 A CN 202310235357A CN 116788158 A CN116788158 A CN 116788158A
Authority
CN
China
Prior art keywords
occupant
coordinates
vehicle
monitoring device
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310235357.7A
Other languages
English (en)
Inventor
岩田觉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Publication of CN116788158A publication Critical patent/CN116788158A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/29Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area inside the vehicle, e.g. for viewing passengers or cargo
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供一种能够准确地对搭乘车辆的乘员的状态进行监视的乘员状态监视装置。乘员状态监视装置(11)具备:拍摄部(21),其拍摄搭乘于车辆(10)的乘员(18);存储部(25),其存储车辆(10)的车辆部件的作为位置信息的车辆部件坐标(16);以及运算控制部(26)。运算控制部(26)基于对乘员(18)拍摄的图像计算出表示乘员(18)所注视位置的注视坐标(17),并基于注视坐标(17)和车辆部件坐标(16)对乘员(18)的状态进行判断。

Description

乘员状态监视装置
技术领域
本发明涉及乘员状态监视装置。
背景技术
众所周知,现有的车辆中监视乘员状态的装置例如是以下专利文献中记载的构造。
专利文献1中记载的驾驶支援装置,基于视线检测部检测出的视线来确定应该在监视器上显示的显示对象。另外,监视器显示车外摄像头(車外カメラ)拍摄的显示对象的图像。
在专利文献2中,根据视频内至少1个滑动时间窗口内包含的帧的人脸图像的注视区域的各个类型分布,确定对驾驶员注意力的监视结果。
现有技术文献
专利文献
专利文献1:(日本)特开2009-023565号公报
专利文献2:(日本)特表2021-518010号公报
发明内容
发明所要解决的技术问题
然而,前述的各专利文献中记载的发明,从更准确地监视乘员状态的角度来看,是有改善的余地的。
具体来说,在前述各专利文献所记载的发明中,虽然通过录像机或摄像头等拍摄手段对乘员的状态进行推断,但是并没有准确掌握有关乘员的三维视点的信息。因此,如果想利用这些发明对乘员的旁视(脇見)进行监视,面临的问题是难以准确地监视旁视。
本发明是针对这样的问题点而进行的发明,本发明的目的是提供能够准确地对搭乘车辆的乘员的状态进行监视的乘员状态监视装置。
用于解决技术问题的技术方案
本发明的乘员状态监视装置具备:拍摄部,其拍摄搭乘于车辆的乘员;存储部,其存储所述车辆的车辆部件的作为位置信息的车辆部件坐标;以及运算控制部,所述运算控制部基于对所述乘员拍摄的图像计算出表示所述乘员所注视位置的注视坐标,并基于所述注视坐标和所述车辆部件坐标对所述乘员的状态进行判断。
发明效果
根据本发明的乘员状态监视装置,拍摄部根据拍摄的图像三维地计算出注视坐标,通过比较注视坐标与车辆部件坐标,能够判断乘员的状态。因此,例如能够容易地检测出乘员在进行旁视的状态。即,当乘员的视线虽然朝向前方,但正在注视车室内放置的便携设备等时,能够将此状态检测出来进行告知,因此能够提高驾驶车辆时的安全性。
附图说明
图1A是表示具备本发明实施方式所涉及的乘员状态监视装置的车辆的侧视图。
图1B是表示具备本发明实施方式所涉及的乘员状态监视装置的车辆的车室内前部的图。
图2是表示本发明实施方式所涉及的乘员状态监视装置的连接结构的方框图。
图3是在本发明实施方式所涉及的乘员状态监视装置中表示乘员状态的示意图。
图4是表示本发明实施方式所涉及的乘员状态的监视方法的流程图。
图5A是在本发明实施方式所涉及的乘员状态监视装置中表示车辆部件坐标的示意图。
图5B是在本发明实施方式所涉及的乘员状态监视装置中表示注视坐标的示意图。
图6是在本发明实施方式所涉及的乘员状态监视装置中详细描述注视坐标与车辆部件坐标的关系的示意图。
图7是在本发明实施方式所涉及的乘员状态监视装置中表示视线与有无告知的关系的表格。
图8是在本发明实施方式所涉及的乘员状态监视装置中表示区域的权重的图。
具体实施方式
以下将基于附图详细地说明本发明实施方式所涉及的乘员状态监视装置11。在以下的说明中,同一部件原则上使用同一符号,并省略重复说明。
图1A是表示具备乘员状态监视装置11的车辆10的侧视图。图1B是表示具备乘员状态监视装置11的车辆10的车室内前部的图。
乘员状态监视装置11是用于监视搭乘于车辆10的乘员18的状态的装置。乘员状态监视装置11主要具备拍摄部21、存储部25,以及运算控制部26。乘员状态监视装置11的具体功能和结构后面将参照图2以后的附图进行描述。
车辆10例如是汽车或电车等。车辆10例如是配备发动机的车辆、EV(ElectricalVehicle,电动车辆)、HEV(Hybrid Electrical Vehicle,混合动力电动车辆)或PHEV(Plug-in Hybrid Electrical Vehicle,插电式混合动力电动车辆)。
驾驶车辆10的乘员18就坐在作为驾驶席的座椅13上。乘员18通过操作转向盘14、未图示的制动踏板以及加速踏板等来驾驶车辆10。
在车身28的前方部分配设有前挡玻璃12。
如图1B所示,仪表板19的左右方向中央附近配设有显示器15。显示器15是综合显示车外气温、空调工作状况等关于车辆10的信息的多功能显示器,也作为显示后述的警报的告知部发挥功能。这里,告知部可以采用发出警报音的扬声器。
显示器15上方的仪表板19上配设有用于拍摄驾驶车辆10的乘员18的头部30等的拍摄部21。拍摄部21被称为DMS(Driver Monitor System,驾驶员监视系统)。拍摄部21例如是红外线摄像头等。
转向盘14的上方部分的里侧配设有仪表类23。仪表类23上显示车速、发动机转速等。
乘员状态监视装置11使用拍摄部21监视驾驶车辆10的乘员18的状态,当判断乘员18在进行旁视等动作时,会将该问题告知乘员18。这样一来,乘员18在接到来自显示器15等的告知后,能够意识到自己的状态,于是能够从旁视状态回归到集中于驾驶工作的常规状态。关于该处理过程,后面还会参照流程图进行描述。
图2是表示乘员状态监视装置11的连接结构的方框图。
乘员状态监视装置11主要具备运算控制部26、拍摄部21、存储部25、显示器15以及告知部27。
运算控制部26具备有CPU、RAM以及ROM等。运算控制部26的输入侧端子与拍摄部21和存储部25连接。运算控制部26的输出侧端子与显示器15和告知部27连接。如后面所述,运算控制部26基于对乘员18拍摄的图像计算出表示乘员18所注视位置的注视坐标17,并基于注视坐标17和车辆部件坐标16对乘员18的状态进行判断。
拍摄部21对搭乘于车辆10的乘员18进行拍摄。拍摄部21例如是红外线摄像头,能够在白天和夜间对乘员18的头部30进行拍摄。
存储部25对作为车辆部件位置信息的车辆部件坐标16进行存储。车辆部件位置信息是指表示图1A所示的仪表板19及其所具备的各部件的表面的三维位置的信息。
显示器15如前所述,是显示与车辆10相关的各种信息等的显示装置。
告知部27例如是配设于车身28的扬声器,当判断乘员18在进行旁视时,通过发出声音向乘员18告知此问题。
图3是表示拍摄部21拍摄的乘员18的状态的示意图。前述的拍摄部21对乘员18的头部30上所具有的眼球20进行拍摄。进一步地,前述的运算控制部26根据对头部30或眼球20拍摄的影像,计算出乘员18所注视的三维上的位置即注视坐标17。例如,运算控制部26根据眼球20的瞳孔位置计算出注视坐标17。
图4是表示监测乘员18的状态的方法的流程图。参照图4,对通过乘员状态监视装置11对作为乘员18状态的旁视进行监视的方法进行说明。
在步骤S10中,车辆10根据乘员18的指示开始行驶。
在步骤S11中,运算控制部26通过拍摄部21对乘员18的头部30和眼球20进行拍摄。运算控制部26持续通过拍摄部21进行该拍摄,直至车辆10结束行驶为止。
在步骤S12中,运算控制部26根据拍摄部21拍摄的图像计算出注视坐标17的三维坐标。具体地,如图5B所示,运算控制部26根据对乘员18拍摄的图像进行用于确定注视坐标17的运算。更详细地说,如图6所示,运算控制部26根据左右眼球20的视线计算出视线角度和焦点距离,根据眼球20的位置计算出视线坐标角度,根据头部30的位置和倾斜度计算出视点坐标绝对值(相对于车身的坐标),根据乘员18的姿势计算出视点坐标绝对值(相对于车身的坐标)。本实施方式中,通过基于乘员18的眼球20等相关的信息计算出注视坐标17,能够准确地获得注视坐标17的三维位置。
在步骤S13中,运算控制部26将注视坐标17与车辆部件坐标16进行比较。参照图5A,车辆部件坐标16是表示构成车辆10的内饰的车辆部件的表面的三维坐标。例如,车辆部件坐标16是表示前挡玻璃12的内表面、仪表板19的内表面等的三维坐标。例如,运算控制部26通过使注视坐标17与车辆部件坐标16重叠来比较这两个坐标。
在步骤S14中,运算控制部26监视乘员18的状态,例如判断乘员18是否在进行旁视。
作为具体的一个运算例子,可以将注视坐标17与车辆部件坐标16进行比较。例如,参照图6,运算控制部26在注视坐标17相比于车辆部件表面位于乘员18侧时,可以判断出乘员18在进行旁视。详细描述就是,当表示仪表板19后方表面的车辆部件坐标16与注视坐标17之间的距离L10是预定的阈值以上时,就可判断乘员18在进行旁视。这种情况下,可判断乘员18没有通过前挡玻璃12注视车辆10的前方,而是例如正在旁视仪表板19后方侧放置的智能手机等便携设备22。此时,如后面所述,可以向乘员18告知,以提醒乘员18不要旁视。
参照图7的表格,在步骤S14中,可以根据乘员18的视线所朝向的去处即视线对象物体的种类,判断有无旁视或者是否需要告知。
具体来说,当乘员18的视线的角度是朝向前挡玻璃12或者镜子(侧视镜或后视镜),注视坐标17在车室外时,运算控制部26判断乘员18没有在旁视,不需要进行告知。
而当乘员18的视线的角度是朝向前挡玻璃12或者镜子(侧视镜或后视镜),注视坐标17在车室内时,运算控制部26对车辆部件坐标16与注视坐标17之间的关系进行考虑。即,当注视坐标17存在于车辆部件坐标16的表面或是其附近时,运算控制部26判断为乘员18并没有旁视,而是暂时在看玻璃的雾气或尘埃,所以不需要进行告知。而当注视坐标17相比车辆部件坐标16位于身前侧,即乘员18侧时,运算控制部26判断为乘员18正在旁视地注视智能手机等便携设备22,需要进行告知。
另外,当乘员18的视线角度是朝向仪表板19等内饰面,焦点是在车室内时,运算控制部26对车辆部件坐标16与注视坐标17之间的关系进行考虑。即,当注视坐标17存在于车辆部件坐标16的表面或是其附近时,运算控制部26判断乘员18没有在旁视,而是暂时在看娱乐信息或是内饰的污垢,所以不需要进行告知。而当注视坐标17相比车辆部件坐标16存在于身前侧,即乘员18侧时,运算控制部26判断为乘员18正在旁视地注视智能手机等便携设备22,需要进行告知。再有,当注视坐标17相比车辆部件坐标16存在于里侧,即远离乘员18侧时,运算控制部26判断乘员18并没有在旁视,而是暂时在看脱离的部件或者破损,所以不需要进行告知。
如上所述,通过判断乘员18的旁视,能够根据车辆10的内部状况或是乘员18的驾驶状况,准确地检测旁视并进行告知。
参照图8,在步骤S14中,可以进行权重处理,使在放置便携设备22的区域被判断为是旁视的程度较高。具体来说,在仪表板19上,限定例如智能手机这样的便携设备22的放置区域。通常,由于考虑对于乘员18的便利性和可视性,便携设备22会被放置在转向盘14的左方近旁或者右方近旁。在图8中,在虚线所圈出的区域29,放置便携设备22的频度较高。
参照图6,作为权重处理的一个例子,可以考虑在区域29内部,将与L10进行比较的阈值设定得比在其它区域短。通过这样的处理,在区域29内部,就能够确保将旁视容易地检测出来。
通过这样的处理,运算控制部26可以进行权重处理,使在区域29被判断为是旁视的程度较高。即,当乘员18的视线朝向区域29时,判断为乘员18在进行旁视的可能性较高。而当乘员18的视线朝向区域29以外的区域时,判断为乘员18在进行旁视的可能性较低。这样一来,就能够更加准确地检测乘员18因凝视便携设备22而进行的旁视。
在步骤S14中如果是“是”,即如果乘员18是在进行旁视,则进入步骤S15。
在步骤S14中如果是“否”,即如果乘员18没有在进行旁视,则进入步骤S18,不进行告知。
在步骤S15中,运算控制部26向乘员18进行告知。具体地,运算控制部26通过作为告知部27的扬声器等,发出纠正旁视的语音或警报音。另外,作为告知部27,也可以采用显示器15,这种情况下,显示器15上显示纠正旁视的画面。通过告知部27对乘员18进行告知,可以纠正乘员18的旁视行为。
在步骤S16中,运算控制部26判断乘员18是否在继续旁视。在步骤S16的处理与前述的步骤S13和步骤S14相同。
在步骤S16中如果是“是”,即如果乘员18是在继续旁视,运算控制部26则返回步骤S15,继续进行告知。
在步骤S16中如果是“否”,即如果乘员18已经停止旁视,运算控制部26则进入步骤S17。
在步骤S17中,运算控制部26结束通过告知部27进行的告知。
在步骤S18中,乘员18结束车辆10的行驶。即,乘员18停下车辆10。
以上对本发明的实施方式进行了说明,但本发明并不限于此,可以在不脱离本发明要旨的范围内进行变更。另外,前述的各方式可以互相组合。
例如,在前述的实施方式中,是以旁视作为运算控制部26所监视的状态,但也可以以其它状态作为监视对象。例如,也可以以乘员18姿势极度失控状态等作为运算控制部26的监视对象状态。
【符号说明】
10车辆
11乘员状态监视装置
12前挡玻璃
13座椅
14转向盘
15显示器
16车辆部件坐标
17注视坐标
18乘员
19仪表板
20眼球
21拍摄部
22便携设备
23仪表类
25存储部
26运算控制部
27告知部
28车身
29区域
30头部。

Claims (9)

1.一种乘员状态监视装置,包括:
拍摄部,其拍摄搭乘于车辆的乘员;
存储部,其对所述车辆的车辆部件的作为位置信息的车辆部件坐标进行存储;以及
运算控制部,所述运算控制部基于对所述乘员拍摄的图像计算出表示所述乘员所注视位置的注视坐标,并基于所述注视坐标和所述车辆部件坐标对所述乘员的状态进行判断。
2.根据权利要求1所述的乘员状态监视装置,其中,所述运算控制部根据所述图像中所包含的所述乘员的眼球的相关信息,计算出所述注视坐标。
3.根据权利要求1所述的乘员状态监视装置,其中,所述运算控制部在所述注视坐标相比于所述车辆部件的表面处于所述乘员一侧时,判断为所述乘员在进行旁视。
4.根据权利要求2所述的乘员状态监视装置,其中,所述运算控制部在所述注视坐标相比于所述车辆部件的表面处于所述乘员一侧时,判断为所述乘员在进行旁视。
5.根据权利要求1所述的乘员状态监视装置,还包括告知部,
所述运算控制部在基于所述注视坐标和所述车辆部件坐标判断所述乘员正在进行旁视时,通过所述告知部向所述乘员进行告知。
6.根据权利要求2所述的乘员状态监视装置,还包括告知部,
所述运算控制部在基于所述注视坐标和所述车辆部件坐标判断所述乘员正在进行旁视时,通过所述告知部向所述乘员进行告知。
7.根据权利要求3所述的乘员状态监视装置,还包括告知部,
所述运算控制部在基于所述注视坐标和所述车辆部件坐标判断所述乘员正在进行旁视时,通过所述告知部向所述乘员进行告知。
8.根据权利要求4所述的乘员状态监视装置,还包括告知部,
所述运算控制部在基于所述注视坐标和所述车辆部件坐标判断所述乘员正在进行旁视时,通过所述告知部向所述乘员进行告知。
9.根据权利要求1-8中任一项所述的乘员状态监视装置,其中,所述运算控制部进行权重处理,使在放置便携设备的区域被判断为是旁视的程度较高。
CN202310235357.7A 2022-03-22 2023-03-13 乘员状态监视装置 Pending CN116788158A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-045712 2022-03-22
JP2022045712A JP2023139929A (ja) 2022-03-22 2022-03-22 乗員状態監視装置

Publications (1)

Publication Number Publication Date
CN116788158A true CN116788158A (zh) 2023-09-22

Family

ID=87930644

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310235357.7A Pending CN116788158A (zh) 2022-03-22 2023-03-13 乘员状态监视装置

Country Status (4)

Country Link
US (1) US20230302992A1 (zh)
JP (1) JP2023139929A (zh)
CN (1) CN116788158A (zh)
DE (1) DE102023106367A1 (zh)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4981566B2 (ja) 2007-07-20 2012-07-25 株式会社デンソーアイティーラボラトリ 運転支援装置および運転支援方法
CN111709264A (zh) 2019-03-18 2020-09-25 北京市商汤科技开发有限公司 驾驶员注意力监测方法和装置及电子设备

Also Published As

Publication number Publication date
US20230302992A1 (en) 2023-09-28
DE102023106367A1 (de) 2023-09-28
JP2023139929A (ja) 2023-10-04

Similar Documents

Publication Publication Date Title
JP4926437B2 (ja) 車両の運転支援装置
US6927674B2 (en) Vehicle instrument cluster having integrated imaging system
EP1801730A1 (en) Method of detecting vehicle-operator state
JP3228086B2 (ja) 運転操作補助装置
JP5092776B2 (ja) 視線方向検出装置及び視線方向検出方法
CN112052716B (zh) 识别装置、识别方法及存储介质
US11601621B2 (en) Vehicular display system
KR20190099755A (ko) 차량 및 그 제어 방법
JP4319535B2 (ja) 顔の向き検知装置
JP2020157938A (ja) 車載監視制御装置
JP6811743B2 (ja) 安全運転支援装置
JP2018129732A (ja) 車両用映像表示装置
JPH10246640A (ja) 車両用情報表示装置
JP6822325B2 (ja) 操縦支援装置、操縦支援方法、プログラム
JP2019180075A (ja) 運転支援システム、画像処理装置及び画像処理方法
TW201501972A (zh) 具有方向定向導航系統之視覺定位
CN116788158A (zh) 乘员状态监视装置
JP5576198B2 (ja) 脇見判定装置
JP7441628B2 (ja) 車両のヘッドアップディスプレイシステム
JP7276082B2 (ja) 運転者状態推定装置
JP4935387B2 (ja) 情報表示装置
JP7043795B2 (ja) 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP2017061216A (ja) 車載撮像システム、車両および撮像方法
US20230306758A1 (en) Occupant state monitoring apparatus
JP2019217970A (ja) 電子ミラー装置及び画像表示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication