CN112654546A - 用户感兴趣对象的识别方法以及识别装置 - Google Patents

用户感兴趣对象的识别方法以及识别装置 Download PDF

Info

Publication number
CN112654546A
CN112654546A CN202080004845.1A CN202080004845A CN112654546A CN 112654546 A CN112654546 A CN 112654546A CN 202080004845 A CN202080004845 A CN 202080004845A CN 112654546 A CN112654546 A CN 112654546A
Authority
CN
China
Prior art keywords
user
vehicle
area
information
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080004845.1A
Other languages
English (en)
Other versions
CN112654546B (zh
Inventor
何彦杉
黄为
徐文康
张峻豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN112654546A publication Critical patent/CN112654546A/zh
Application granted granted Critical
Publication of CN112654546B publication Critical patent/CN112654546B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0265Vehicular advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/23
    • B60K35/654
    • B60K35/656
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

一种用户感兴趣对象的识别方法以及识别装置,涉及智能车领域,该识别方法包括:获取用户的视线注视区域的信息以及该用户对应的环境图像(S410);根据该环境图像得到该用户在该环境图像中的第一注视区域的信息,其中,该第一注视区域用于表示通过人体物理特征确定的敏感区域(S420);根据该视线注视区域的信息与该第一注视区域的信息得到该用户的目标注视区域,其中,该目标注视区域用于表示在该环境图像中该用户注视的目标对象所在的区域(S430)。基于该识别方法能够提高了识别用户感兴趣对象的准确性。

Description

用户感兴趣对象的识别方法以及识别装置
技术领域
本申请涉及智能车领域,更具体地,涉及一种用户感兴趣对象的识别方法以及识别装置。
背景技术
随着人工智能技术的不断发展,用户对体验感的要求越来越高,从而希望能够获得更加智能的人机交互的体验。
驾驶员在驾驶的过程中可能会对车外区域的物体产生兴趣,但是为了确保驾驶安全,驾驶员不能长期注视车外区域的感兴趣物体可能无法了解该物品的详细信息;从而驾驶员的感兴趣对象也无法得到有效记录,降低驾驶员的驾驶体验。
因此,如何准确地识别用户感兴趣对象,从而提升用户的体验成为一个亟需解决的问题。
发明内容
本申请提供一种用户感兴趣对象的识别方法以及识别装置,通过本申请的识别方法与识别装置能够提高用户感兴趣对象识别的准确性。
第一方面,提供了一种用户感兴趣对象的识别方法,包括:获取用户的视线注视区域的信息以及所述用户对应的环境图像;根据所述环境图像得到所述用户在所述环境图像中的第一注视区域的信息,其中,所述第一注视区域用于表示通过人体物理特征确定的敏感注视区域;根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,其中,所述目标注视区域用于表示在所述环境图像中所述用户注视的目标对象所在的区域。
其中,用户对应的环境图像可以是指用户所处环境的图像。
在一种可能的实现方式中,对于智能车领域而言,用户可以是指车辆的驾驶员或者车辆中的乘客,则用户对应的环境图像可以是指车辆所在环境的图像,或者,车辆外部的环境图像。
在另一种可能的实现方式中,对于智能终端领域而言,用户可以是指家庭中的智能家居的使用者,则用户对应的环境图像可以是指智能家居的使用者所在的家庭中的图像。
需要说明的是,用户的视线注视区域的信息可以包括用户视线注视区域的位置信息、用户视线注视区域的方向、以及用户视线注视区域的范围大小等。
应理解,环境图像中第一注视区域是通过人体生物特征确定的用户的敏感区域,但并不一定是用户的注视区域;其中,敏感区域可以是指根据人体物理特征,比如,根据人体眼睛对不同颜色、形状变化的敏感程度确定的容易引起用户注意的区域。
例如,人眼的视觉神经对各种不同波长光的感光灵敏度是不一样的;人眼对波长约为555nm的电磁波最为敏感,这种电磁波处于光学频谱的绿光区域,故人眼对绿光较为敏感;因此,对于一幅图像用户的敏感区域可以是指图像中的绿色区域。
还应理解,环境图像中第一注视区域可以是指基于人体物体特征提前预先判断的用户对环境图像中的敏感区域;而目标注视区域是在环境图像中用户注视的目标对象所在的区域;环境图像中第一注视区域对于不同用户而言可能是相同的,但是目标注视区域对于不同用户而言,不同用户可以根据自身的兴趣注视环境图像中自身感兴趣的目标对象所在的区域。
在一种可能的实现方式中,环境图像中的第一注视区域可以通过图像中各个区域的兴趣值来表示,其中,兴趣值可以是通过深度学习方法,或者使用边缘检测方法获取形态变化丰富度,通过梯度计算方法获取颜色变化丰富度,并对这两个值进行加权计算出图像各位置的兴趣值;基于图像中各个位置的兴趣值预先判断用户对环境图像中的哪个区域可能会产生兴趣。
在本申请的实施例中,通过在识别用户感兴趣的对象时引入环境图像的预判,即根据用户可能会对环境图像中的敏感区域与用户的视线注视区域确定用户的目标注视区域,从而提高了识别用户感兴趣对象的准确性。
结合第一方面,在第一方面的某些实现方式中,所述根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,包括:
根据所述视线注视区域与所述第一注视区域的重叠区域确定所述目标注视区域。
在本申请的实施例中,通过在识别用户感兴趣的对象时引入环境图像的预判,即可以根据用户对环境图像中的敏感区域与用户的视线注视区域的重叠区域确定用户的目标注视区域即用户感兴趣的目标对象所述的区域,从而提高了识别用户感兴趣对象的准确性。
结合第一方面,在第一方面的某些实现方式中,所述用户为车辆中用户,所述获取用户的视线注视区域的信息以及所述用户对应的环境图像,包括:获取所述车辆中用户的视线注视区域的信息以及所述车辆的行车记录仪的图像,其中,所述车辆中用户的视线注视区域用于表示所述车辆中用户在所述车辆外部的注视区域;所述根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,包括:根据所述车辆中用户的视线注视区域的信息与所述行车记录仪的图像中所述第一注视区域的信息确定所述车辆中用户的目标注视区域。
其中,车辆中用户可以是指用户位于汽车内部;比如,用户可以是指车辆的驾驶员,或者,用户可以是指车辆的乘客。
在一种可能的实现方式中,车辆中用户为车辆的驾驶员,则驾驶员的视线注视区域用于表示驾驶员在车辆的前挡风玻璃方向的注视区域。
在一种可能的实现方式中,车辆中用户为车辆中的乘客,比如,位于副驾驶位置的乘客,则用户的视线注视区域用于表示乘客在车辆的前挡风玻璃方向的注视区域,或者车辆在车窗方向的注视区域。
在一种可能的实现方式中,车辆中用户为车辆中后排的乘客,则用户的视线注视区域用于表示乘客在车辆的车窗方向的注视区域。
在一种可能的实现方式中,车辆中用户可以为车辆的驾驶员或者车辆的乘客,则车辆中用户的视线注视区域可以通过车辆驾驶室内的摄像头获取用户的图像;进而根据车辆中用户的图像中的用户的面部以及眼睛状态确定用户的视线注视区域,即确定用户在车辆的挡风玻璃方向的注视区域;其中,驾驶室内的摄像头可以是指驾驶员监控系统或者座舱监控系统中的摄像头。
结合第一方面,在第一方面的某些实现方式中,所述获取所述车辆中用户的视线注视区域的信息以及所述车辆的行车记录仪的图像,包括:获取N帧图像中所述车辆中用户的视线注视区域的信息以及M帧所述行车记录仪的图像,其中,所述N帧图像与所述M帧所述行车记录仪的图像是在相同的起始时刻与终止时刻内获取的图像;所述根据所述车辆中用户的视线注视区域的信息与所述行车记录仪的图像中所述第一注视区域的信息确定所述车辆中用户的目标注视区域,包括:确定所述N帧图像中所述车辆中用户的视线注视区域的差异满足第一预设范围;确定所述M帧所述行车记录仪的图像中所述第一注视区域的差异满足第二预设范围内;根据所述N帧图像中所述车辆中用户的视线注视区域与所述M帧所述行车记录仪的图像中所述第一注视区域确定重叠区域;根据所述重叠区域确定所述车辆中用户的目标注视区域。
结合第一方面,在第一方面的某些实现方式中,所述视线注视区域的差异是指所述视线注视区域的位置差异;所述第一注视区域的差异是指所述第一注视区域的位置差异。
在一种可能的实现方式中,获取N帧车辆中用户的图像与M帧行车记录仪的图像也可以是在时间差允许的范围内获取的图像;即获取N帧车辆中用户的图像的时刻与获取M帧行车记录仪的图像的时刻可以相似或者接近。
在一种可能的实现方式中,若获取N帧车辆中用户的图像与M帧行车记录仪的图像存在一定的允许时间差,则可以根据获取的N帧车辆中用户的图像预测后几帧图像中车辆中用户的视线注视区域;或者,可以根据M帧行车记录仪的图像预测后几帧图像中的第一注视区域。
在一种可能的实现方式中,获取的N帧图像中车辆中用户的视线注视区域可以是指通过配置于车辆的驾驶舱内的摄像头采集的N帧车辆中用户的图像;基于N帧车辆中用户的图像可以确定N帧图像中用户的视线注视区域,比如,可以通过N帧车辆中用户的图像中用户的头部位置确定用户在车辆的挡风玻璃方向上的注视区域。
还应理解,在相同的起始时刻与终止时刻内获取的N帧图像(例如,N帧车辆中用户的图像)与M帧行车记录仪的图像的数量可以相同也可以不同。
在一种可能的实现方式中,可以首先对驾驶员的视线进行追踪,即确定获取的N帧图像即N帧驾驶员的图像的差异满足第一预设范围;即可以确定获取N帧驾驶员的图像中驾驶员的视线注视区域不在正前方且保持N帧图像变化差异较小,则此时可以确定驾驶员在注视车辆外场景中的感兴趣的物体;并且确定获取的M帧行车记录仪的图像的差异满足第二预设范围,此时可以确定该行车记录仪持续多帧拍摄到相同的物体未丢失;此时进一步确定N帧图像中驾驶员的视线注视区域与M帧行车记录仪的图像中的重叠区域,从而确定驾驶员的目标注视区域;通过多帧图像满足第一预设范围以及第二预设范围,可以确保本申请提供的用户感兴趣对象的识别方法的鲁棒性。
结合第一方面,在第一方面的某些实现方式中,还包括:将所述车辆中用户的视线注视区域映射至所述行车记录仪的图像所在成像平面;或者,将所述行车记录仪的图像映射至所述车辆中用户的视线注视区域所在成像平面。
在本申请的实施例中为了便于确定车辆中用户的视线注视区域与环境图像中第一注视区域的重叠区域,即重叠部分;可以将位于两个成像平面的图像投影至同一成像平面;即可以将车辆中用户的视线注视区域映射至行车记录仪的图像所在成像平面;或者,可以将行车记录仪的图像映射至车辆中用户的视线注视区域所在成像平面。
结合第一方面,在第一方面的某些实现方式中,还包括:在所述车辆的显示屏中显示所述目标注视区域的信息。
结合第一方面,在第一方面的某些实现方式中,所述车辆中包括多个显示屏,所述在所述车辆的显示屏中显示所述目标注视区域的信息,包括:
根据所述车辆中用户的在所述车辆中的位置信息确定所述多个显示屏中的目标显示屏;在所述目标显示屏中显示所述目标注视区域的信息。
在一种可能的实现方式中,根据车辆中用户的位置信息确定用户的身份信息,身份信息可以包括驾驶员或者乘客;进而可以根据用户的身份信息向用户推送目标注视区域的信息;比如,可以在相应位置的显示屏中显示目标注视区域的信息;或者,可以将目标注视区域的信息进行播报;或者,可以目标区域的信息推送至用户的手机中以便用户后续可以继续了解该目标注视区域的信息。
例如,若检测到用户为驾驶员,则可以通过抬头显示HUD系统在车辆中显示目标注视区域的信息;比如,可以在前挡风玻璃上显示目标注视区域的信息。
例如,若检测到用户为副驾驶位置或者车辆后排位置的乘客,则可以在该位置对应的显示屏中显示目标注视区域的信息。
结合第一方面,在第一方面的某些实现方式中,通过抬头显示HUD系统在所述车辆中显示所述目标注视区域的信息。
在一种可能的实现方式中,上述用户感兴趣对象的识别方法可以应用于智能终端场景中,在智能终端的场景中通过本申请提供的方法可以用于识别用户感兴趣的物体,从而为用户提供更加智能的服务,有效提升用户体验。
第二方面,提供了一种用户感兴趣对象的识别装置,包括:获取模块,用于获取用户的视线注视区域的信息以及所述用户对应的环境图像;处理模块,用于根据所述环境图像得到所述用户在所述环境图像中的第一注视区域的信息,其中,所述第一注视区域用于表示通过人体物理特征确定的敏感区域;根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,其中,所述目标注视区域用于表示在所述环境图像中所述用户注视的目标对象所在的区域。
其中,用户对应的环境图像可以是指用户所处的环境的图像。
在一种可能的实现方式中,对于智能车领域而言,用户可以是指车辆的驾驶员或者车辆中的乘客,则用户对应的环境图像可以是指车辆所在环境的图像,或者,车辆外部的环境图像。
需要说明的是,用户的视线注视区域的信息可以包括用户视线注视区域的位置信息、用户视线注视区域的方向、以及用户视线注视区域的范围大小等。
在另一种可能的实现方式中,对于智能终端领域而言,用户可以是指家庭中的智能家居的使用者,则用户对应的环境图像可以是指智能家居的使用者所在的家庭中的图像。
应理解,环境图像中第一注视区域是通过人体生物特征确定的用户的敏感区域,但并不一定是用户的注视区域;其中,敏感区域可以是指根据人体物理特征,比如,根据人体眼睛对不同颜色、形状变化的敏感程度确定的容易引起用户注意的区域。
例如,人眼的视觉神经对各种不同波长光的感光灵敏度是不一样的;人眼对波长约为555nm的电磁波最为敏感,这种电磁波处于光学频谱的绿光区域,故人眼对绿光较为敏感;因此,对于一幅图像用户的敏感区域可以是指图像中的绿色区域。
还应理解,环境图像中第一注视区域可以是指基于人体物体特征提前预先判断的用户对环境图像中的敏感区域;而目标注视区域是指用户对于环境图像中的注视区域,即用户注视的目标对象所在的区域;环境图像中第一注视区域对于不同用户而言可能是相同的,但是目标注视区域对于不同用户而言,不同用户可以基于自身的兴趣注视环境图像中自身感兴趣的物体所在的区域。
在一种可能的实现方式中,环境图像中的第一注视区域可以通过图像中各个区域的兴趣值来表示,其中,兴趣值可以是通过深度学习方法,或者使用边缘检测方法获取形态变化丰富度,通过梯度计算方法获取颜色变化丰富度,并对这两个值进行加权计算出图像各位置的兴趣值;基于图像中各个位置的兴趣值预先判断用户对环境图像中的哪个区域可能会产生兴趣。
在本申请的实施例中,通过在识别用户感兴趣的对象时引入环境图像的预判,即根据用户对环境图像中的敏感区域与用户的视线注视区域确定用户的目标注视区域,从而提高了识别用户感兴趣对象的准确性。
结合第二方面,在第二方面的某些实现方式中,所述处理模块具体用于:
根据所述视线注视区域与所述第一注视区域的重叠区域确定所述目标注视区域。
在本申请的实施例中,通过在识别用户感兴趣的对象时引入环境图像的预判,即可以根据用户对环境图像中的敏感区域与用户的视线注视区域的重叠区域确定用户的目标注视区域即用户感兴趣的目标对象所述的区域,从而提高了识别用户感兴趣对象的准确性。
结合第二方面,在第二方面的某些实现方式中,所述用户为车辆中用户,所述获取模块具体用于:获取所述车辆中用户的视线注视区域的信息以及所述车辆的行车记录仪的图像,其中,所述车辆中用户的视线注视区域用于表示所述车辆中用户在所述车辆外部的注视区域;
所述处理模块具体用于:根据所述驾驶员的视线注视区域的信息与所述行车记录仪的图像中所述第一注视区域的信息确定所述驾驶员的目标注视区域。
其中,车辆中的用户可以是指用户位于汽车内部;比如,用户可以是指车辆的驾驶员,或者,用户可以是指车辆的乘客。
在一种可能的实现方式中,车辆中用户为车辆的驾驶员,则驾驶员的视线注视区域用于表示驾驶员在车辆的前挡风玻璃方向的注视区域。
在一种可能的实现方式中,车辆中用户为车辆中的乘客,比如,位于副驾驶位置的乘客,则用户的视线注视区域用于表示乘客在车辆的前挡风玻璃方向的注视区域,或者车辆在车窗方向的注视区域。
在一种可能的实现方式中,车辆中用户为车辆中后排的乘客,则用户的视线注视区域用于表示乘客在车辆的车窗方向的注视区域。
在一种可能的实现方式中,车辆中用户可以为车辆的驾驶员或者车辆的乘客,则车辆中用户的视线注视区域可以通过车辆驾驶室内的摄像头获取位于车辆内部的用户的图像;进而根据用户的图像中的用户面部以及眼睛状态确定用户的视线注视区域,即确定用户在车辆的挡风玻璃中注视区域;其中,驾驶室内的摄像头可以是指驾驶员监控系统或者座舱监控系统中的摄像头。
结合第二方面,在第二方面的某些实现方式中,所述获取模块具体用于:获取N帧图像中所述车辆中用户的视线注视区域的信息以及M帧所述行车记录仪的图像;
所述处理模块具体用于:
确定所述N帧图像中所述车辆中用户的视线注视区域的差异满足第一预设范围;确定所述M帧所述行车记录仪的图像中所述第一注视区域的差异满足第二预设范围内;根据所述N帧图像中所述车辆中用户的视线注视区域与所述M帧所述行车记录仪的图像中所述第一注视区域确定重叠区域;根据所述重叠区域确定所述车辆中用户的目标注视区域。
结合第二方面,在第二方面的某些实现方式中,所述视线注视区域的差异是指所述视线注视区域的位置差异;所述第一注视区域的差异是指所述第一注视区域的位置差异。
在一种可能的实现方式中,获取的N帧图像可以是指获取的N帧车辆中用户的图像,其中,N帧车辆中用户的图像与M帧行车记录仪的图像是在相同的时间段内获取的图像,即在相同的起始时刻与终止时刻内获取的图像。
在一种可能的实现方式中,获取N帧车辆中用户的图像与M帧行车记录仪的图像也可以是在时间差允许的范围内获取的图像;即获取N帧车辆中用户的图像的时刻与获取M帧行车记录仪的图像的时刻可以相似或者接近。
在一种可能的实现方式中,若获取N帧车辆中用户的图像与M帧行车记录仪的图像存在一定的允许时间差,则可以根据获取的N帧车辆中用户的图像预测后几帧图像中车辆中用户的视线注视区域;或者,可以根据M帧行车记录仪的图像预测后几帧图像中的第一注视区域。
还应理解,在相同的起始时刻与终止时刻内获取的N帧图像(例如,N帧车辆中用户的图像)与M帧行车记录仪的图像的数量可以相同也可以不同。
在本申请的实施例中,可以首先对车辆中用户(例如,车辆的驾驶员)的视线进行追踪,即确定获取的N帧图像即N帧驾驶员的图像的差异满足第一预设范围;即可以确定获取N帧驾驶员的图像中驾驶员的视线注视区域不在正前方且保持N帧图像变化差异较小,则此时可以确定驾驶员在注视车辆外场景中的感兴趣的物体;并且确定获取的M帧行车记录仪的图像的差异满足第二预设范围,此时可以确定该行车记录仪持续多帧拍摄到相同的物体未丢失;此时进一步确定N帧图像中驾驶员的视线注视区域与M帧行车记录仪的图像中的重叠区域,从而确定驾驶员的目标注视区域;通过多帧图像满足第一预设范围以及第二预设范围,可以确保本申请提供的用户感兴趣对象的识别方法的鲁棒性。
结合第二方面,在第二方面的某些实现方式中,所述处理模块还用于:
将所述车辆中用户的视线注视区域的信息映射至所述行车记录仪的图像所在成像平面;或者,将所述行车记录仪的图像的信息映射至所述车辆中用户的视线注视区域所在成像平面。
在本申请的实施例中为了便于确定驾驶员的视线注视区域与环境图像中第一注视区域的重叠区域,即重叠部分;可以将位于两个成像平面的图像投影至同一成像平面;即可以将驾驶员的视线注视区域映射至行车记录仪的图像所在成像平面;或者,可以将行车记录仪的图像映射至驾驶员的视线注视区域所在成像平面。
结合第二方面,在第二方面的某些实现方式中,所述处理模块还用于:
在所述车辆的显示屏中显示所述目标注视区域的信息。
结合第二方面,在第二方面的某些实现方式中,所述车辆中包括多个显示屏,所述处理模块具体用于:
根据所述车辆中用户的在所述车辆中的位置信息确定所述多个显示屏中的目标显示屏;在所述目标显示屏中显示所述目标注视区域的信息。
在一种可能的实现方式中,根据车辆中用户的位置信息确定用户的身份信息,身份信息可以包括驾驶员或者乘客;进而可以根据用户的身份信息向用户推送目标注视区域的信息;比如,可以在相应位置的显示屏中显示目标注视区域的信息;或者,可以将目标注视区域的信息进行播报;或者,可以目标区域的信息推送至用户的手机中以便用户后续可以继续了解该目标注视区域的信息。
例如,若检测到用户为驾驶员,则可以通过抬头显示HUD系统在车辆中显示目标注视区域的信息;比如,可以在前挡风玻璃上显示目标注视区域的信息。
例如,若检测到用户为副驾驶位置或者车辆后排位置的乘客,则可以在该位置对应的显示屏中显示目标注视区域的信息。
结合第二方面,在第二方面的某些实现方式中,通过抬头显示HUD系统在所述车辆中显示所述目标注视区域的信息。
结合第二方面,在第二方面的某些实现方式中,所述识别装置为所述车辆中的车载设备。
在一种可能的实现方式中,上述用户感兴趣对象的识别装置可以应用于智能终端场景中,在智能终端的场景中通过本申请提供的识别装置可以用于识别用户感兴趣的物体,从而为用户提供更加智能的服务,有效提升用户体验。
第三方面,提供了一种用户感兴趣对象的识别装置,包括:存储器,用于存储程序;处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行以下过程:获取用户的视线注视区域的信息以及所述用户对应的环境图像;根据所述环境图像得到所述用户在所述环境图像中的第一注视区域的信息,其中,所述第一注视区域用于表示通过人体物理特征确定的敏感区域;根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,其中,所述目标注视区域用于表示在所述环境图像所述用户注视的目标对象所在的区域。
在一种可能的实现方式中,上述识别装置中包括的处理器还用于执行第一方面及第一方面中的任意一种实现方式中的用户感兴趣对象的识别方法。
应理解,在上述第一方面中对相关内容的扩展、限定、解释和说明也适用于第三方面中相同的内容。
第四方面,提供了一种汽车,所述车辆包括上述第二方面及第二方面中的任意一种实现方式中的识别装置。
第五方面,提供了一种车辆系统,包括配置于车辆内部的摄像头、行车记录仪以及上述第二方面及第二方面中的任意一种实现方式中的识别装置。
其中,配置于车辆摄像头可以是指驾驶员监控系统(driver monitoring system,DMS)摄像头,或者,座舱监控系统(cockpit monitoring system,CMS)摄像头。其中,上述摄像头的位置可以置于车辆的A柱(A-pillar)附近,或方向盘、仪表盘位置,或后视镜附近等位置。
第六方面,提供了一种计算机可读存储介质,所述计算机可读介质存储介质用于存储程序代码,当所述程序代码被计算机执行时,所述计算机用于执行上述第一方面及第一方面中的任意一种实现方式中的用户感兴趣对象的识别方法。
第七方面,提供了一种芯片,所述芯片包括处理器,所述处理器用于执行上述第一方面及第一方面中的任意一种实现方式中的用户感兴趣对象的识别方法。
在一种可能的实现方式中,上述第七方面的芯片可以位于车辆的车载终端中。
第八方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序代码,当所述计算机程序代码在计算机上运行时,使得计算机执行上述第一方面及第一方面中的任意一种实现方式中的用户感兴趣对象的识别方法。
需要说明的是,上述计算机程序代码可以全部或者部分存储在第一存储介质上,其中,第一存储介质可以与处理器封装在一起的,也可以与处理器单独封装,本申请实施例对此不作具体限定。
附图说明
图1是本申请实施例提供的一个应用场景的示意图;
图2是本申请实施例提供的车辆100的功能框图;
图3是本申请实施例提供的车辆的硬件架构的示意图;
图4是本申请实施例提供的车辆的软件架构的示意图;
图5是本申请实施例提供的用户感兴趣对象的识别方法的示意性流程图;
图6是本申请实施例提供的用户感兴趣对象的识别方法的示意性流程图;
图7是本申请实施例提供的驾驶员视线注视区域的示意图;
图8是本申请实施例提供的计算驾驶员的头部位置的示意性流程图;
图9是本申请实施例提供的计算DVR视线注视区域的示意图;
图10是本申请实施例提供的场景注意力预判的示意图;
图11是本申请实施例提供的在驾驶领域中的场景注意区域判断的示意性流程图;
图12是本申请实施例提供的在智能终端领域中的场景注意区域判断的示意性流程图;
图13是本申请实施例提供的用户感兴趣对象的识别装置的示意图;
图14是本申请实施例提供的用户感兴趣对象的识别装置的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
首先,对本申请实施例的应用场景进行举例说明。
示例性地,图1是本申请实施例提供的用户感兴趣对象的识别方法的应用场景的示意图。
如图1所示,本申请实施例提供的用户感兴趣对象的识别方法可以应用在智能车领域。
例如,在驾驶过程中,车辆中用户(例如,驾驶员或者车辆中的乘客)可能会对路边的物体产生兴趣,比如,路边的广告牌;但是,出于驾驶安全性的考虑,驾驶员无法长期将视线停留在该感兴趣的物体上,导致无法即时了解该感兴趣物品的详细信息;或者,由于驾驶中的车辆的行驶速度较快,车辆中的乘客无法及时了解车外感兴趣的目标对象,从而车辆中用户的兴趣点也无法得到有效记录。本申请实施例中提供的用于识别感兴趣对象的方法,可以通过使用车辆中用户的视线与车外交互准确地识别车辆中用户在驾驶时的感兴趣的目标对象,并据此对车辆中用户进行相应的信息推送,能够有效地提升用户的体验感。
图2是本申请实施例提供的车辆100的功能框图。
其中,车辆100可以是人工驾驶车辆,或者可以将车辆100配置可以为完全或部分地自动驾驶模式。
在一个示例中,车辆100可以在处于自动驾驶模式中的同时控制自车,并且可通过人为操作来确定车辆及其周边环境的当前状态,确定周边环境中的至少一个其他车辆的可能行为,并确定其他车辆执行可能行为的可能性相对应的置信水平,基于所确定的信息来控制车辆100。在车辆100处于自动驾驶模式中时,可以将车辆100置为在没有和人交互的情况下操作。
车辆100中可以包括各种子系统,例如,行进系统110、传感系统120、控制系统130、一个或多个外围设备140以及电源160、计算机系统150和用户接口170。
可选地,车辆100可以包括更多或更少的子系统,并且每个子系统可包括多个元件。另外,车辆100的每个子系统和元件可以通过有线或者无线互连。
示例性地,行进系统110可以包括用于向车辆100提供动力运动的组件。在一个实施例中,行进系统110可以包括引擎111、传动装置112、能量源113和车轮114/轮胎。其中,引擎111可以是内燃引擎、电动机、空气压缩引擎或其他类型的引擎组合;例如,汽油发动机和电动机组成的混动引擎,内燃引擎和空气压缩引擎组成的混动引擎。引擎111可以将能量源113转换成机械能量。
示例性地,能量源113可以包括汽油、柴油、其他基于石油的燃料、丙烷、其他基于压缩气体的燃料、乙醇、太阳能电池板、电池和其他电力来源。能量源113也可以为车辆100的其他系统提供能量。
示例性地,传动装置112可以包括变速箱、差速器和驱动轴;其中,传动装置112可以将来自引擎111的机械动力传送到车轮114。
在一个实施例中,传动装置112还可以包括其他器件,比如离合器。其中,驱动轴可以包括可耦合到一个或多个车轮114的一个或多个轴。
示例性地,传感系统120可以包括感测关于车辆100周边的环境的信息的若干个传感器。
例如,传感系统120可以包括定位系统121(例如,GPS系统、北斗系统或者其他定位系统)、惯性测量单元122(inertial measurement unit,IMU)、雷达123、激光测距仪124以及相机125。传感系统120还可以包括被监视车辆100的内部系统的传感器(例如,车内空气质量监测器、燃油量表、机油温度表等)。来自这些传感器中的一个或多个的传感器数据可用于检测对象及其相应特性(位置、形状、方向、速度等)。这种检测和识别是自主车辆100的安全操作的关键功能。
其中,定位系统121可以用于估计车辆100的地理位置。IMU122可以用于基于惯性加速度来感测车辆100的位置和朝向变化。在一个实施例中,IMU 122可以是加速度计和陀螺仪的组合。
示例性地,雷达123可以利用无线电信号来感测车辆100的周边环境内的物体。在一些实施例中,除了感测物体以外,雷达123还可用于感测物体的速度和/或前进方向。
示例性地,激光测距仪124可以利用激光来感测车辆100所位于的环境中的物体。在一些实施例中,激光测距仪124可以包括一个或多个激光源、激光扫描器以及一个或多个检测器,以及其他系统组件。
示例性地,相机125可以用于捕捉车辆100的周边环境的多个图像。例如,相机125可以是静态相机或视频相机。
如图2所示,控制系统130为控制车辆100及其组件的操作。控制系统130可以包括各种元件,比如可以包括转向系统131、油门132、制动单元133、计算机视觉系统134、路线控制系统135以及障碍规避系统136。
示例性地,转向系统131可以操作来调整车辆100的前进方向。例如,在一个实施例中可以为方向盘系统。油门132可以用于控制引擎111的操作速度并进而控制车辆100的速度。
示例性地,制动单元133可以用于控制车辆100减速;制动单元133可以使用摩擦力来减慢车轮114。在其他实施例中,制动单元133可以将车轮114的动能转换为电流。制动单元133也可以采取其他形式来减慢车轮114转速从而控制车辆100的速度。
如图2所示,计算机视觉系统134可以操作来处理和分析由相机125捕捉的图像以便识别车辆100周边环境中的物体和/或特征。上述物体和/或特征可以包括交通信号、道路边界和障碍物。计算机视觉系统134可以使用物体识别算法、运动中恢复结构(structurefrom motion,SFM)算法、视频跟踪和其他计算机视觉技术。在一些实施例中,计算机视觉系统134可以用于为环境绘制地图、跟踪物体、估计物体的速度等等。
示例性地,路线控制系统135可以用于确定车辆100的行驶路线。在一些实施例中,路线控制系统135可结合来自传感器、GPS和一个或多个预定地图的数据以为车辆100确定行驶路线。
如图2所示,障碍规避系统136可以用于识别、评估和避免或者以其他方式越过车辆100的环境中的潜在障碍物。
在一个实例中,控制系统130可以增加或替换地包括除了所示出和描述的那些以外的组件。或者也可以减少一部分上述示出的组件。
如图2所示,车辆100可以通过外围设备140与外部传感器、其他车辆、其他计算机系统或用户之间进行交互;其中,外围设备140可包括无线通信系统141、车载电脑142、麦克风143和/或扬声器144。
在一些实施例中,外围设备140可以提供车辆100与用户接口170交互的手段。例如,车载电脑142可以向车辆100的用户提供信息。用户接口116还可操作车载电脑142来接收用户的输入;车载电脑142可以通过触摸屏进行操作。在其他情况中,外围设备140可以提供用于车辆100与位于车内的其它设备通信的手段。例如,麦克风143可以从车辆100的用户接收音频(例如,语音命令或其他音频输入)。类似地,扬声器144可以向车辆100的用户输出音频。
如图2所述,无线通信系统141可以直接地或者经由通信网络来与一个或多个设备无线通信。例如,无线通信系统141可以使用3G蜂窝通信;例如,码分多址(code divisionmultiple access,CDMA))、EVD0、全球移动通信系统(global system for mobilecommunications,GSM)/通用分组无线服务(general packet radio service,GPRS),或者4G蜂窝通信,例如长期演进(long term evolution,LTE);或者,5G蜂窝通信。无线通信系统141可以利用无线上网(WiFi)与无线局域网(wireless local area network,WLAN)通信。
在一些实施例中,无线通信系统141可以利用红外链路、蓝牙或者紫蜂协议(ZigBee)与设备直接通信;其他无线协议,例如各种车辆通信系统,例如,无线通信系统141可以包括一个或多个专用短程通信(dedicated short range communications,DSRC)设备,这些设备可包括车辆和/或路边台站之间的公共和/或私有数据通信。
如图2所示,电源160可以向车辆100的各种组件提供电力。在一个实施例中,电源160可以为可再充电锂离子或铅酸电池。这种电池的一个或多个电池组可被配置为电源为车辆100的各种组件提供电力。在一些实施例中,电源160和能量源113可一起实现,例如一些全电动车中那样。
示例性地,车辆100的部分或所有功能可以受计算机系统150控制,其中,计算机系统150可以包括至少一个处理器151,处理器151执行存储在例如存储器152中的非暂态计算机可读介质中的指令153。计算机系统150还可以是采用分布式方式控制车辆100的个体组件或子系统的多个计算设备。
例如,处理器151可以是任何常规的处理器,诸如商业可获得的CPU。
可选地,该处理器可以是诸如ASIC或其它基于硬件的处理器的专用设备。尽管图2功能性地图示了处理器、存储器、和在相同块中的计算机的其它元件,但是本领域的普通技术人员应该理解该处理器、计算机、或存储器实际上可以包括可以或者可以不存储在相同的物理外壳内的多个处理器、计算机或存储器。例如,存储器可以是硬盘驱动器或位于不同于计算机的外壳内的其它存储介质。因此,对处理器或计算机的引用将被理解为包括对可以或者可以不并行操作的处理器或计算机或存储器的集合的引用。不同于使用单一的处理器来执行此处所描述的步骤,诸如转向组件和减速组件的一些组件每个都可以具有其自己的处理器,所述处理器只执行与特定于组件的功能相关的计算。
在此处所描述的各个方面中,处理器可以位于远离该车辆并且与该车辆进行无线通信。在其它方面中,此处所描述的过程中的一些在布置于车辆内的处理器上执行而其它则由远程处理器执行,包括采取执行单一操纵的必要步骤。
在一些实施例中,存储器152可包含指令153(例如,程序逻辑),指令153可以被处理器151执行来执行车辆100的各种功能,包括以上描述的那些功能。存储器152也可包含额外的指令,比如包括向行进系统110、传感系统120、控制系统130和外围设备140中的一个或多个发送数据、从其接收数据、与其交互和/或对其进行控制的指令。
示例性地,除了指令153以外,存储器152还可存储数据,例如,道路地图、路线信息,车辆的位置、方向、速度以及其它这样的车辆数据,以及其他信息。这种信息可在车辆100在自主、半自主和/或手动模式中操作期间被车辆100和计算机系统150使用。
如图2所示,用户接口170可以用于向车辆100的用户提供信息或从其接收信息。可选地,用户接口170可以包括在外围设备140的集合内的一个或多个输入/输出设备,例如,无线通信系统141、车载电脑142、麦克风143和扬声器144。
在本申请的实施例中,计算机系统150可以基于从各种子系统(例如,行进系统110、传感系统120和控制系统130)以及从用户接口170接收的输入来控制车辆100的功能。例如,计算机系统150可以利用来自控制系统130的输入以便控制制动单元133来避免由传感系统120和障碍规避系统136检测到的障碍物。在一些实施例中,计算机系统150可操作来对车辆100及其子系统的许多方面提供控制。
可选地,上述这些组件中的一个或多个可与车辆100分开安装或关联。例如,存储器152可以部分或完全地与车辆100分开存在。上述组件可以按有线和/或无线方式来通信地耦合在一起。
可选地,上述组件只是一个示例,实际应用中,上述各个模块中的组件有可能根据实际需要增添或者删除,图2不应理解为对本申请实施例的限制。
可选地,车辆100可以是在道路行进的自动驾驶汽车,可以识别其周围环境内的物体以确定对当前速度的调整。物体可以是其它车辆、交通控制设备、或者其它类型的物体。在一些示例中,可以独立地考虑每个识别的物体,并且基于物体的各自的特性,诸如它的当前速度、加速度、与车辆的间距等,可以用来确定自动驾驶汽车所要调整的速度。
可选地,车辆100或者与车辆100相关联的计算设备(如图2的计算机系统150、计算机视觉系统134、存储器152)可以基于所识别的物体的特性和周围环境的状态(例如,交通、雨、道路上的冰等等)来预测所述识别的物体的行为。
可选地,每一个所识别的物体都依赖于彼此的行为,因此,还可以将所识别的所有物体全部一起考虑来预测单个识别的物体的行为。车辆100能够基于预测的所述识别的物体的行为来调整它的速度。换句话说,自动驾驶汽车能够基于所预测的物体的行为来确定车辆将需要调整到(例如,加速、减速、或者停止)稳定状态。在这个过程中,也可以考虑其它因素来确定车辆100的速度,诸如,车辆100在行驶的道路中的横向位置、道路的曲率、静态和动态物体的接近度等等。
除了提供调整自动驾驶汽车的速度的指令之外,计算设备还可以提供修改车辆100的转向角的指令,以使得自动驾驶汽车遵循给定的轨迹和/或维持与自动驾驶汽车附近的物体(例如,道路上的相邻车道中的轿车)的安全横向和纵向距离。
上述车辆100可以为轿车、卡车、摩托车、公共汽车、船、飞机、直升飞机、割草机、娱乐车、游乐场车辆、施工设备、电车、高尔夫球车、火车、和手推车等,本申请实施例不做特别的限定。
示例性地,本申请实施例提供的用户感兴趣对象的识别方法还可以应用于其他领域;比如,智能家居领域;通过本申请的识别方法可以提高用户识别目标注视区域的准确性,从而有利于智能家居向用户提供更加智能的服务。
应理解,上述为对应用场景的举例说明,并不对本申请的应用场景作任何限定。
目前,检测感兴趣对象的方法通常需要提前获取场景中的对象的信息;进而,基于用户的视线追踪确定用户注视场景中的对象,从而确定用户感兴趣的对象。由于该检测感兴趣对象的方法依赖于场景中的对象的信息,但是在许多场景中(例如,驾驶场景)是无法提前获取当前场景中的对象的信息的,此时无法通过上述检测感兴趣对象的方法识别用于感兴趣的对象,从而导致用户体验较差。
有鉴于此,本申请提供了一种用户感兴趣对象的识别方法以及识别装置,在本申请的实施例中可以通过在识别用户感兴趣的对象时可以通过引入环境图像的预判,即根据用户对环境图像中的敏感区域与用户的视线注视区域确定用户的目标注视区域即用户感兴趣的目标对象所在的区域,从而提高了识别用户感兴趣对象的准确性。
下面结合图3至图12对本申请提供的用户感兴趣对象的识别方法进行详细说明。
图3是本申请实施例提供的硬件架构的示意图。
如图3所示,车辆200中可以包括车内摄像头210、行车记录仪220以及图像分析系统230。
示例性地,车辆200可以是指人工驾驶车辆,或者可以将车辆200可以为部分地配置自动驾驶模式。
其中,车内摄像头210可以用于检测车辆中用户(例如,驾驶员或者车辆中的乘客)的状态;,比如,驾驶员疲劳监测,驾驶员表情识别,驾驶员眼球定位;或者,车辆中的乘客的眼球定位、车辆中的乘客的表情识别等。
例如,配置于车辆200的驾驶员监控系统(driver monitoring system,DMS)摄像头,或者,座舱监控系统(cockpit monitoring system,CMS)摄像头。其中,上述摄像头的位置可以置于车辆200的A柱(A-pillar)附近,或方向盘、仪表盘位置,或后视镜附近等位置。
其中,行车记录仪220可以用于记录车辆行驶过程中的视频图像以及声音信息。
例如,配置于车辆200车体前部的行车记录仪摄像头。
其中,图像分析系统230可以用于处理和分析由车内摄像头210或者行车记录仪220捕捉的图像以便识别车辆200中的用户对车外物体的视线追踪。
应理解,图3所示的硬件架构为举例说明,车辆200中还可以包括实现正常运行所必须的其他器件。
图4是本申请提供的软件架构的示意图。
如图4所示,车辆300中可以包括用户视野检测模块310、车外场景检测模块320以及用户注视区域检测模块330。
其中,用户视野检测模块310用于检测车辆中用户的头部视线注视区域,比如,驾驶员的头部视线注视区域即驾驶员的视线经过前挡风玻璃的区域位置;或者,车辆中的乘客的头部视线注视区域。
其中,车外场景检测模块320用于检测车外场景中的物理,并基于人体此生理特征预判用户会对车外哪些物体或者物体中的敏感区域。
其中,用户注视区域检测模块330用于根据用户视野检测模块310以及车外场景检测模块320的结果确定用户的目标注视区域,即用户对车外感兴趣的目标对象所在的区域。
应理解,图4所示的软件架构为举例说明,车辆300中还可以包括实现正常运行所必须的软件模块。
下面结合图5对本申请提供的用户感兴趣对象的识别方法进行详细的说明。
应理解,图5所示的识别方法可以由图1所示的行驶车辆,或者图2所示的智能终端来执行;其中,行驶车辆可以是图3所示的车辆,或者,图4所示的车辆。
图5所示的识别方法400包括步骤S410至步骤S430,下面分别对这些步骤进行详细描述。
S410、获取用户的视线注视区域的信息以及用户对应的环境图像。
示例性地,对于智能车辆领域,可以通过DMS摄像头或者CMS摄像头获取车辆中用户的视线注视区域的信息;比如,通过DMS摄像头可以采集驾驶员的面部图像;根据驾驶员的面部图像可以确定驾驶员的头部视线注视区域。进一步,可以通过车辆的行车记录仪获取环境图像;比如,通过行车记录仪可以获取车辆驾驶过程中的车外的环境图像;或者,也可以从云端获取车辆驾驶过程中车外的环境图像。
例如,当车辆中的DMS摄像头或者CMS摄像头获取到用户的视线注视区域的信息,以及行车记录仪获取到环境图像后,可以通过通信系统发送至车辆的计算机系统(例如,车载设备)。
其中,通信系统可以使用3G蜂窝通信;例如,CDMA、EVD0、GSM/GPRS;或者4G蜂窝通信,例如LTE;或者,5G蜂窝通信;通信系统可以利用无线上网(WiFi)与无线局域网通信;或者,通信系统可以利用红外链路、蓝牙、或者紫蜂协议(ZigBee)与设备直接通信;通信系统可以利用其他无线协议,例如,各种车辆通信系统;或者,通信系统可以包括一个或多个专用短程通信设备,这些设备可包括车辆和/或路边台站之间的公共和/或私有数据通信。
需要说明的是,用户对应的环境图像可以是指用户所处的环境的图像。用户的视线注视区域的信息可以包括用户视线注视区域的位置信息、用户视线注视区域的方向、以及用户视线注视区域的范围大小等。
例如,对于驾驶领域而言,用户可以是指车辆的驾驶员;或者,也可以是指车辆中的乘客;用户对应的环境图像可以是指车辆所在环境的图像,或者,车辆外的环境图像。其中,车辆可以是指人工驾驶车辆,或者,完全或部分地配置为自动驾驶模式的车辆。
例如,对于智能家居领域而言,用户可以是指家庭中的智能家居的使用者,则用户对应的环境图像可以是指智能家居的使用者所在的家庭中的图像。
应理解,上述为对用户对应的环境图像的举例说明,本申请对此并不作任何限定。
S420、根据环境图像得到用户在所述环境图像中的第一注视区域的信息。
其中,第一注视区域是通过人体物理特征确定的敏感区域。
应理解,环境图像中第一注视区域是通过人体生物特征确定的用户的敏感区域,但并不一定是用户的注视区域;其中,敏感区域可以是指根据人体物理特征,比如,根据人体眼睛对不同颜色、形状变化的敏感程度确定的容易引起用户注意的区域。
例如,人眼的视觉神经对各种不同波长光的感光灵敏度是不一样的;人眼对波长约为555nm的电磁波最为敏感,这种电磁波处于光学频谱的绿光区域,故人眼对绿光较为敏感;因此,对于一幅图像用户的敏感区域可以是指图像中的绿色区域。
示例性地,环境图像中的第一注视区域可以通过图像中各个区域的兴趣值来表示,其中,兴趣值可以是通过深度学习方法,或者使用边缘检测方法获取形态变化丰富度,通过梯度计算方法获取颜色变化丰富度,并对这两个值进行加权计算出图像各位置的兴趣值;基于图像中各个位置的兴趣值预先判断驾驶员对图像中的哪个区域较敏感,容易引起用户的注视;参见后续图10所示。
举例来说,对Canny边缘检测算法进行说明,Canny边缘检测算法可以分为以下5个步骤:
步骤1:通过高斯滤波来对环境图像进行平滑处理,目的是去除环境图像中的噪声;
步骤2:确定环境图像中的强度梯度(intensity gradients);
步骤3:通过采用非最大抑制(non-maximum suppression)技术来消除边缘误检(例如,本来不是边缘但检测出来是边缘);
步骤4:通过采用双阈值的方法来确定环境图像中的可能(潜在的)边界;
步骤5:通过采用滞后技术来跟踪环境图像中的边界。
S430、根据用户的视线注视区域的信息与第一注视区域的信息得到用户的目标注视区域。
其中,目标注视区域用于表示在环境图像中用户注视的目标对象所在的区域。
示例性地,用户注视的目标对象可以是指用户感兴趣的目标对象;其中,用户感兴趣的对象可以通过收集用户的历史行为数据,从而得到用户对不同对象的兴趣值确定的;或者,通过收集用户对不同对象的标签确定的。
应理解,第一注视区域可以是指基于人体物体特征提前预先判断的用户对环境图像中的敏感区域;而目标注视区域是指用户对于环境图像中感兴趣的目标对象所在的区域;第一注视区域对于不同用户而言可能是相同的,但是目标注视区域对于不同用户而言,不同用户可以基于自身的兴趣注视环境图像中自身感兴趣的物体所在的区域。
在本申请的实施例中,在识别用户感兴趣的对象时可以通过引入环境图像的预判,即根据用户可能会对环境图像中的敏感区域与用户的视线注视区域确定用户的目标注视区域,从而提高了识别用户感兴趣对象的准确性。
进一步,在上述识别方法应用于智能车领域场景中,还包括:在车辆的显示屏中显示所述目标注视区域的信息。在一个示例中,用户可以是指车辆的驾驶员;或者,也可以是指车辆中的乘客;车辆可以检测用户的身份信息,比如,根据车辆中用户的位置信息确定用户为驾驶员或者乘客;进而可以根据用户的身份信息向用户推送目标注视区域的信息;比如,可以在相应位置的显示屏中显示目标注视区域的信息;或者,可以将目标注视区域的信息进行播报;或者,可以目标区域的信息推送至用户的手机中以便用户后续可以继续了解该目标注视区域的信息。
例如,若检测到用户为驾驶员,则可以通过抬头显示(head up display,HUD)在车辆中显示目标注视区域的信息;比如,可以在前挡风玻璃上显示目标注视区域的信息。
例如,若检测到用户为副驾驶位置或者车辆后排位置的乘客,则可以在该位置对应的显示屏中显示目标注视区域的信息。
可选地,在一种可能的实现方式中,根据用户的视线注视区域的信息与第一注视区域的信息得到用户的目标注视区域,可以包括:根据用户的视线注视区域与第一注视区域的重叠区域确定用户的目标注视区域。
在一个示例中,上述用户感兴趣对象的识别方法可以应用于驾驶场景中,此时用户可以是指位于汽车内部的用户(例如,车辆中用户);获取用户的视线注视区域的信息以及用户对应的环境图像,可以包括:获取车辆中用户的视线注视区域的信息以及车辆的行车记录仪的图像,其中,车辆中用户的视线注视区域用于表示车辆中用户在车辆外部的注视区域;根据用户的视线注视区域的信息与第一注视区域的信息得到用户的目标注视区域,包括:根据车辆中用户的视线注视区域的信息与行车记录仪的图像中第一注视区域的信息确定车辆中用户的目标注视区域。
在一个示例中,车辆中用户为车辆的驾驶员,则驾驶员的视线注视区域用于表示驾驶员在车辆的前挡风玻璃方向的注视区域。
在另一个示例中,车辆中用户为车辆中的乘客,比如,位于副驾驶位置的乘客,则用户的视线注视区域用于表示乘客在车辆的前挡风玻璃方向的注视区域,或者车辆在车窗方向的注视区域。
例如,在驾驶场景中,用户的目标注视区域可以是指车辆外的场景中的驾驶员感兴趣的对象所在的区域;比如,可以是道路边的广告牌上。
需要说明的是,在驾驶场景中的用于识别用户感兴趣对象的方法的具体流程可以参见后续图6至图11所示。
可选地,在一种可能的实现方式中,获取车辆中用户的视线注视区域的信息以及车辆的行车记录仪的图像,可以包括:获取N帧图像中车辆中用户的视线注视区域的信息以及N帧行车记录仪的图像;根据车辆中用户的视线注视区域的信息与行车记录仪的图像中第一注视区域的信息确定车辆中用户的目标注视区域,可以包括:确定N帧图像中车辆中用户的视线注视区域的差异满足第一预设范围;确定N帧行车记录仪的图像中第一注视区域的差异满足第二预设范围;根据N帧图像中车辆中用户的视线注视区域与M帧所述行车记录仪的图像中第一注视区域确定重叠区域;根据重叠区域可以确定车辆中用户的目标注视区域。
示例性地,上述N帧图像中驾驶员的视线注视区域的差异可以是指多帧图像中驾驶员的视线注视区域位置的差异;或者,也可以是指多帧图像中驾驶员的视线注视区域大小的差异;通过N帧图像中视线注视区域的差异能够确定驾驶员是否在预设时间内持续注视相同的目标对象。
同理,N帧行车记录仪的图像中第一注视区域的差异可以是指多帧行车记录仪的图像中第一注视区域位置的差异;或者,也可以是指多帧图像中多帧行车记录仪的图像中第一注视区域大小的差异;通过M帧行车记录仪的图像中第一注视区域的差异能够确定车辆中用户是否能够在预设时间内看到环境图像中的目标对象,避免车辆的行驶方向突然改变车辆中用户可能注视到车外的目标对象但是无法继续注视到该目标对象的场景。
需要说明的是,获取的N帧图像可以是指获取的N帧驾驶员的图像,其中,N帧驾驶员的图像与M帧行车记录仪的图像是在相同的时间段内获取的图像,即在相同的起始时刻与终止时刻内获取的图像。
例如,在获取N帧驾驶员的图像或者M帧行车记录仪的图像时,车辆中的处理器可以在图像上打上时间戳,根据时间戳可以确定在相同的时间段内获取N帧驾驶员的图像与M帧行车记录仪的图像。
应理解,上述获取N帧驾驶员的图像与M帧行车记录仪的图像也可以是在时间差允许的范围内获取的图像;即获取N帧驾驶员的图像的时刻与获取M帧行车记录仪的图像的时刻相似或者接近。
示例性地,若获取N帧驾驶员的图像与M帧行车记录仪的图像存在一定的允许时间差,则可以根据获取的N帧驾驶员的图像预测后几帧驾驶员的图像;或者,可以根据M帧行车记录仪的图像预测后几帧行车记录仪的图像。
示例性地,获取的N帧图像中驾驶员的视线注视区域可以是指通过配置于车辆的驾驶舱内的摄像头采集的N帧驾驶员的图像;基于N帧驾驶员的图像可以确定N帧图像中驾驶员的视线注视区域,比如,可以通过N帧驾驶员的图像中驾驶员的头部位置确定驾驶员在车辆的前挡风玻璃上的注视区域。
应理解,在N帧图像中驾驶员的视线注视区域的差异满足第一预设范围以及N帧行车记录仪的图像中第一注视区域的差异满足第二预设范围的情况下,才会进一步确定N帧图像中驾驶员的视线注视区域与M帧行车记录仪的图像中第一注视区域确定重叠区域;比如,在满足上述第一预设范围与第二预设范围的情况下,可以根据N帧图像中驾驶员的视线注视区域中的第i帧图像中驾驶员的视线注视区域与M帧行车记录仪的图像中第i帧行车记录仪的图像中的第一注视区域确定重叠区域的大小;进行通过比对N帧图像中的重叠区域确定驾驶员的目标注视区域。
在本申请的实施例中,可以首先对驾驶员的视线进行追踪,即确定获取的N帧图像即N帧驾驶员的图像的差异满足第一预设范围;即可以确定获取N帧驾驶员的图像中驾驶员的视线注视区域不在正前方且保持N帧图像变化差异较小,则此时可以确定驾驶员在注视车辆外场景中的感兴趣的物体;并且确定获取的M帧行车记录仪的图像的差异满足第二预设范围,此时可以确定该行车记录仪持续多帧拍摄到相同的物体未丢失;此时进一步确定N帧图像中驾驶员的视线注视区域与M帧行车记录仪的图像中的重叠区域,从而确定驾驶员的目标注视区域;通过多帧图像满足第一预设范围以及第二预设范围,可以确保本申请提供的用户感兴趣对象的识别方法的鲁棒性。
还应理解,在相同的起始时刻与终止时刻内获取的N帧图像(例如,N帧驾驶员的图像)与M帧行车记录仪的图像的数量可以相同也可以不同。
在一种情况下,在相同的起始时刻与终止时刻内获取的N帧图像(即驾驶员图像)与M帧行车记录仪的图像的数量相等。
例如,N帧图像中驾驶员的视线注视区域可以是指3帧图像分别为#1~#3图像中驾驶员的注视区域;M帧行车记录仪的图像可以是指与3帧图像中驾驶员的视线注视区域相对应的3帧行车记录仪的图像分别为#4~#6,则根据N帧图像中驾驶员的视线注视区域与N帧行车记录仪的图像中第一注视区域确定重叠区域可以是指确定#1图像中驾驶员的注视区域与#4行车记录仪的图像中第一视线注视区域的重叠区域,记为重叠区域1;同理,分别确定#2图像与#5行车记录仪的图像的重叠区域,记为重叠区域2;确定#3图像与#6行车记录仪的图像的重叠区域,记为重叠区域3;通过重叠区域1、重叠区域2以及重叠区域3中的相同部分最终得到驾驶员的目标注视区域。
在另一种情况下,在相同的起始时刻与终止时刻内获取的N帧图像(即驾驶员图像)与M帧行车记录仪的图像的数量不相等;比如,若获取驾驶员图像的摄像头的采集频率与行车记录仪的采集频率不相同时,则在相同的时间段内采集的图像帧的数量可以不同。
示例性地,以获取N帧驾驶员图像,M帧行车记录仪的图像进行举例说明,其中,N<M。
1、向下匹配,即通过对数量较小的图像进行匹配,即通过对N帧驾驶员图像进行匹配。
例如,对N帧驾驶员图像中的每帧驾驶员图像寻找M帧行车记录仪的图像中与其时间戳最接近的行车记录仪的图像,即基于N帧驾驶员图像找到M帧行车记录仪的图像中的N帧行车记录仪的图像;也就是说,对于M帧行车记录仪的图像允许丢弃掉部分多余的图像。
2、向上匹配,即通过对数量较多的图像进行匹配,即通过对M帧行车记录仪的图像进行匹配。
例如,对于M帧行车记录仪图像中的每帧行车记录仪的图像寻找N帧驾驶员图像中与其时间戳最接近的驾驶员图像,即基于M帧行车记录仪的图像找到M帧驾驶员图像;也就是说,允许复用部分驾驶员图像,即允许M帧行车记录仪的图像中的多帧图像匹配相同的驾驶员图像。
同理,当N>M时与上述过程类似,此处不再赘述。
进一步地,在本申请的实施例中为了便于确定车辆中用户的视线注视区域与环境图像中第一注视区域的重叠区域,即重叠部分;可以将位于两个成像平面的图像投影至同一成像平面;即可以将车辆中用户的视线注视区域的信息映射至行车记录仪的图像所在成像平面;或者,可以将行车记录仪的图像的信息映射至车辆中用户的视线注视区域所在成像平面。具体过程可以参见后续图9所示。
可选地,在一种可能的实现方式中,上述识别方法还包括:在车辆的显示屏中显示所述目标注视区域的信息。
可选地,在一种可能的实现方式中,车辆中可以包括多个显示屏,在车辆的显示屏中显示目标注视区域的信息,包括:根据车辆中用户的在车辆中的位置信息确定多个显示屏中的目标显示屏;在目标显示屏中显示目标注视区域的信息。
示例性地,根据车辆中用户的位置信息确定用户的身份信息,身份信息可以包括驾驶员或者乘客;进而可以根据用户的身份信息向用户推送目标注视区域的信息;比如,可以在相应位置的显示屏中显示目标注视区域的信息;或者,可以将目标注视区域的信息进行播报;或者,可以目标区域的信息推送至用户的手机中以便用户后续可以继续了解该目标注视区域的信息。
例如,若检测到用户为驾驶员,则可以通过抬头显示HUD系统在车辆中显示目标注视区域的信息;比如,可以在前挡风玻璃上显示目标注视区域的信息。
例如,若检测到用户为副驾驶位置或者车辆后排位置的乘客,则可以在该位置对应的显示屏中显示目标注视区域的信息。
可选地,在一种可能的实现方式中,还包括:通过抬头显示HUD系统在所述车辆中显示所述目标注视区域的信息。
在另一个示例中,上述用户感兴趣对象的识别方法可以应用于智能终端场景中,在智能终端的场景中通过本申请提供的方法可以用于识别用户感兴趣的物体,从而为用户提供更加智能的服务,有效提升用户体验。具体流程可以参见后续图12所示,此处不再赘述。
在本申请的实施例中,在识别用户感兴趣的对象时可以通过引入环境图像的预判,即根据用户可能会对环境图像中感兴趣的区域与用户的视线注视区域确定用户实际感兴趣的区域,从而提高了识别用户感兴趣对象的准确性。
图6是本申请实施例提供的用户感兴趣对象的识别方法示意性流程图。图6所示的方法包括步骤S510至步骤S560,下面分别对这些步骤进行详细描述。
应理解,图6所示的方法可以由图1所示的行驶车辆,或者图2所示的智能终端来执行;其中,行驶车辆可以是图3所示的车辆,或者,图4所示的车辆。
需要说明的是,图6中以用户为驾驶员为例进行举例说明;在本申请的实施例中,用户还可以为位于车辆中的用户,比如,车辆中的乘客,或者其它身份的用户,本申请对此不作任何限定。
S510、计算驾驶员的视线注视区域。
其中,计算驾驶员的视线注视区域即确定驾驶员的视线会经过前挡风玻璃的区域位置。
示例性地,可以将DMS/CMS采集到的图像输入至计算系统进行计算,通过采用深度学习算法,或者支持向量机算法,得到驾驶员在前挡风玻璃上注视的区域。
需要说明的是,支持向量机算法(Support vector machines,SVM)是一种有监督的机器学习算法,可用于分类任务或回归任务。
例如,如图7所示,可以将前挡风玻璃分成多个正方形区域;假设左下角为起点,该起点在区域中的坐标为(0,0);向上、向右为对应正方向;通过深度学习算法可以识别多个正方形区域中驾驶员视线注视的区域。
S520、计算驾驶员的头部3D位置。
例如,可以通过双目方法计算驾驶员的头部3D位置。
示例性地,图8是计算驾驶员的头部3D位置的示意性流程图。如图8所示,该方法包括步骤S610至步骤S650,下面分别对这些步骤进行详细描述。
S610、获取相机的内参以及外参标定。
例如,获取出厂前对DMS/CMS内参或者外参标定可以是通过相机标定方法,获取两个相机的内参与外参矩阵;从而能够基于内参与外参建立相机与相机、相机与3D空间中其他物体的位置、方向关系。
S620、检测关键点P1、P2。
其中,关键点P1与P2可以分别是指在DMS或者CMS视图中驾驶员的头部中心位置。
例如,在DMS/CMS视图中检测头部位置P1,P2可以是通过深度学习或其他算法检测出两个视图中头部2D横纵坐标位置p1,p2。
S630、计算关键点P1、P2所在直线。
S640、计算关键点P1、P2所在3D直线O1P1,O2P2。
例如,根据DMS/CMS内参/外参可以计算头部所在3D直线O1P1,O2P2可以是基于相机的内参/外参将头部2D横纵坐标位置p1,p2转换为3D空间坐标P1,P2;其中,O1,O2分别表示DMS/CMS在3D空间中的光学原点,记录在外参矩阵中,从而可计算出O1P1,O2P2。
S650、计算驾驶员头部的中心位置点P。
例如,驾驶员的头部中位置点P可以是通过求解两条3D直线O1P1,O2P2的交点得到的;若两条直线O1P1,O2P2无交点,则可以选择两条直线距离最近的点为点P。
通过上述S610至S650可以根据相机的内参与外参从而得到驾驶员的头部的3D位置。
S530、计算行车记录仪(driving video record,DVR)视线注视区域。
需要说明的是,计算DVR视线注视区域可以是指建立一个驾驶员在挡风玻璃的视线注视区域至DVR的视线注视区域的关联关系;比如,该关联关系可以是查表关系。
例如,如图9所示,驾驶员像平面O1与DVR像平面O2的空间位置关系,通过装在车身前部的行车记录仪获取前方图像,然后根据驾驶员头部位置、驾驶员的视线注视区域计算出驾驶员注视区域在DVR中对应的区域。眼睛点为车身后视摄像头位置,X直线为驾驶员视线注视区域中心点在空间中的延长线,DVR为行车记录仪在空间中的位置,O1中阴影区域表示驾驶员在挡风玻璃上注视区域,O2中斜线区域表示DVR视图中对应的驾驶员注视区域。
应理解,驾驶员的感兴趣物体所在位置位于驾驶员透过前挡风玻璃的视线注视区域的延长线上,因此确定DVR视图中对应的驾驶员的注视区域,则能够确定驾驶员在DVR中感兴趣的物体的大致所在区域。
S540、场景注意力预判。
需要说明的是,场景注意力预判是指由于人眼会对颜色、形状变化比较丰富的区域比较敏感并产生兴趣,因此,可以基于人体此生理特征,预判驾驶员可能会对车外哪些区域产生兴趣。
示例性地,如图10所示,获取一张图像通过深度学习方法,或者使用Canny边缘检测方法获取形态变化丰富度,通过梯度计算方法获取颜色变化丰富度,并对这两个值进行加权计算出图像各位置的兴趣值;基于图像中各个位置的兴趣值预先判断驾驶员对图像中的哪个区域可能会产生兴趣。比如,在图10中的阴影区域表示驾驶员的敏感区域,即可能会引起驾驶员注意的区域。
例如,上述图像可以是从DVR中获取的图像。
S550、场景注意区域判断。
例如,可以通过计算DVR中对应的驾驶员的视线注视区域以及场景注意力预判可以得到驾驶员对车外场景中真正感兴趣的区域。
S560、意图判断。
例如,基于上述S550场景注意区域判断可以得到驾驶员真正感兴趣的区域,从而可以获取该区域的信息,后续可以将该感兴趣的信息提供给驾驶员;比如,可以将该感兴趣区域的信息对驾驶员进行播报;或者,将该信息推送至驾驶员的手机中以便驾驶员后续可以继续了解该感兴趣区域的信息。
示例性地,上述场景注意区域判断的具体流程可以参见图11所示的流程。场景注意区域判断可以包括步骤S710至步骤S750,下面分别对这些步骤进行详细描述。
S710、驾驶员视线追踪。
例如,具体地参见上述S510的计算驾驶员的视线注视区域。
S720、判断驾驶员的视线注视区域是否持续N帧;若是,则执行S750;若否,则返回。
需要说明的是,判断驾驶员的视线注视区域是否持续N帧是指判断驾驶员在前挡风玻璃上的视线注视区域是否在N帧图像中保持不动或在小范围内变化;即判断驾驶员是否连续N帧持续注意某个区域。
例如,若在N帧驾驶员的视线注视区域的变化超出范围,则可以认为驾驶员只是扫视经过,没有引起驾驶员的注意,在此状态下不需要计算驾驶员车外感兴趣区域;若驾驶员视线注视区域始终保持在正前方,则可以认为驾驶员在专心驾驶,没有注视车外物体等,在此状态下不需要计算驾驶员车外感兴趣区域。
应理解,在本申请的实施例中,N帧图像驾驶员的视线注视区域是否在N帧图像中保持不动或者在小范围内变化可以是指驾驶员的视线注视区域在除正前方向外且N帧图像中驾驶员的视线注视区域保持不动或在小范围内变化;其中,正前方向可以是指车辆行驶的方向。
S730、车外注意力预判。
例如,具体地参见上述S540的场景注意力预判。
S740、判断车外注意力预判是否持续M帧;若是,则执行S750;若否,则返回。
应理解,连续M帧车外注意力预判是通过对行车记录仪获取的图像进行注意力预判,计算多帧图像的感兴趣区域的重叠区域。
示例性地,若在M帧图像中感兴趣区域丢失,即感兴趣移出图像边界,或者多帧图像中的感兴趣区域之间不连续,则可能对应的场景为驾驶过程中车道路边的较小的物体(例如,路边的小广告牌),驾驶员的注视时间较短,基本不可能引起驾驶员的兴趣,则不需要执行S750;若M帧图像中感兴趣区域连续且不丢失,则可以执行S750预判此区域是否为驾驶员的真正的感兴趣区域。
还应理解,在相同的起始时刻与终止时刻内获取的N帧图像(例如,N帧驾驶员的图像)与M帧行车记录仪的图像的数量可以相同也可以不同。
S750、场景注意区域判断。
需要说明的是,S750是基于获驾驶员视线追踪与车外注意力预判算法,当这两个算法的结果都持续不变,或者小范围内改变时,场景注意区域判断流程开启;即若驾驶员的视线注视区域与车外注意力预判同时持续N帧图像中保持持续不变,或者在小范围内改变,则需要进行车外场景注意区域判断。
举例来说,假设通过车辆驾驶室内的摄像头获取驾驶员的N帧图像(例如,5帧图像);通过行车记录仪可以获取车外场景的N帧图像(例如,5帧图像);分别计算5帧驾驶室内采集的摄像头的图像中驾驶员在前挡风玻璃中的视线注视区域,进而判断该5帧图像中驾驶员的视线注视区域是否保持不变或者较小范围内的变化;同理,基于车外注意力预判可以分别确定车外场景的5帧图像中驾驶员可能感兴趣的区域,进而判断该5帧车外场景的图像中驾驶员可能感兴趣的区域是否保持不变或者较小范围内的变化;若同时满足上述两个持续N帧保持不变或者较小范围内的变化,则分别判断驾驶室内的摄像头获取驾驶员的N帧图像中的每一帧图像与对应的每一帧行车记录仪获取的图像中的重叠区域,该重叠区域是驾驶员真正感兴趣的区域。
应理解,上述通过对相同时间段内采集的车辆驾驶室内的图像的数量与行车记录仪的图像的数量相等的情况进行了举例说明;在相同的时间段内,采集的车辆驾驶室内的图像的数量与行车记录仪的图像的数量也可能不同,本申请对此不作任何限定。
示例性地,通过S530可以进行DVR视线注视区域计算,即将驾驶员的视线注视区域从挡风玻璃移动到行车记录仪的图像内,将驾驶员在行车记录仪的图像内的视线注视区域与行车记录仪的图像内的感兴趣预判区域取交集,当连续N帧图像的交集保持不变或小范围内移动,则认为该交集区域是指驾驶员真正注视的区域。
在本申请的实施例中,通过结合车内摄像头采集的驾驶员的图像获取驾驶员的视线注视区域,并将驾驶员的视线注视区域与车外场景区域进行结合,从而提升了用户的感兴趣对象识别算法的准确度与鲁棒性,为用户带来了更好的交互体验。
应理解,上述图11是在驾驶领域中的场景注意区域判断的示意性流程图。图12是在智能终端领域的场景注意区域判断的示意性流程图,在智能终端领域可以通过本申请提供的用于识别感兴趣对象的方法判断用户对家居中的哪个物体感兴趣,并提供相应的交互。
在智能终端领域中,用于识别感兴趣对象的方法与上述图6至图10所示的流程类似,区别在于在驾驶领域中获取的是驾驶员的视线注视区域,在智能终端领域则获取的是用户的视线注视区域,以及场景注意区域判断的流程不同。
下面结合图12对智能终端领域中的场景注意区域判断的流程进行详细描述。图12所示的场景注意区域判断可以包括步骤S810至步骤S830,下面分别对这些步骤进行详细描述。
S810、用户视线追踪,即获取用户的视线注视区域。
例如,可以通过智能终端的摄像头获取用户的图像;比如,可以通过智慧屏中的摄像头采集用户的图像。
S820、判断用户的视线注视区域是否持续N帧;若是,则执行S830;若否,则返回。
应理解,在智能终端领域中,比如,对于智能家居而言,通常默认智能家居是不会移动的,因此可以只需要进行持续N帧用户视线注视区域的判断而不需要执行N帧场景注意力预判;即假设场景中的物体是不发送移动的,需要获取用户的视线注视区域,进而判断用户的视线注视区域是否在N帧图像中保持不变或者较小的变化范围内,即判断用户是否在一段时间内持续注视着某个物体。
S830、场景注意区域判断。
例如,可以基于持续N帧用户的视线注视区域以及场景注意力预判确定用户真正注视的物体。其中,场景注意力预判的具体流程可以参见图10的具体说明,此处不再赘述。
应理解,上述举例说明是为了帮助本领域技术人员理解本申请实施例,而非要将本申请实施例限于所例示的具体数值或具体场景。本领域技术人员根据所给出的上述举例说明,显然可以进行各种等价的修改或变化,这样的修改或变化也落入本申请实施例的范围内。
上文结合图1至图12,详细描述了本申请实施例中的用户感兴趣对象的识别方法,下面将结合图13和图14,详细描述本申请的装置实施例。应理解,本申请实施例中的用于用户感兴趣对象的识别装置可以执行前述本申请实施例的各种用户感兴趣对象的识别方法,即以下各种产品的具体工作过程,可以参考前述方法实施例中的对应过程。
图13是本申请一个实施例提供的用户感兴趣对象的识别装置的示意性框图。
应理解,图13示出的识别装置900仅是示例,本申请实施例的装置还可包括其他模块或单元。应理解,识别装置900能够执行图5至图12的识别方法中的各个步骤,为了避免重复,此处不再详述。
如图13所示,识别装置900可以包括获取模块910和处理模块920,其中,获取模块910用于获取用户的视线注视区域的信息以及所述用户对应的环境图像;处理模块920用于根据所述环境图像得到所述用户在所述环境图像中的第一注视区域的信息,其中,所述第一注视区域用于表示通过人体物理特征确定的敏感区域;根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,其中,所述目标注视区域用于表示在所述环境图像中所述用户注视的目标对象所在的区域。
可选地,在一种可能的实现方式中,所述处理模块920具体用于:
根据所述视线注视区域与所述第一注视区域的重叠区域确定所述目标注视区域。
可选地,在一种可能的实现方式中,所述用户为车辆中用户,所述获取模块910具体用于:
获取所述车辆中用户的视线注视区域的信息以及所述车辆的行车记录仪的图像,其中,所述车辆中用户的视线注视区域用于表示所述车辆中用户在所述车辆外部的注视区域;
所述处理模块920具体用于:
根据所述车辆中用户的视线注视区域的信息与所述行车记录仪的图像中所述第一注视区域的信息确定所述车辆中用户的目标注视区域。
可选地,在一种可能的实现方式中,所述获取模块910具体用于:
获取N帧图像中所述车辆中用户的视线注视区域的信息以及M帧所述行车记录仪的图像,其中,所述N帧图像与所述M帧所述行车记录仪的图像是在相同的起始时刻与终止时刻内获取的图像,N、M均为正整数;
所述处理模块920具体用于:
确定所述N帧图像中所述车辆中用户的视线注视区域的差异满足第一预设范围;
确定所述M帧所述行车记录仪的图像中所述第一注视区域的差异满足第二预设范围内;
根据所述N帧图像中所述车辆中用户的视线注视区域与所述M帧所述行车记录仪的图像中所述第一注视区域确定重叠区域;
根据所述重叠区域确定所述车辆中用户的目标注视区域。
可选地,在一种可能的实现方式中,所述视线注视区域的差异是指所述视线注视区域的位置差异;所述第一注视区域的差异是指所述第一注视区域的位置差异。
可选地,在一种可能的实现方式中,所述处理模块920还用于:
将所述车辆中用户的视线注视区域映射至所述行车记录仪的图像所在成像平面;或者,
将所述行车记录仪的图像映射至所述车辆中用户的视线注视区域所在成像平面。
可选地,在一种可能的实现方式中,所述处理模块920还用于:
在所述车辆的显示屏中显示所述目标注视区域的信息。
可选地,在一种可能的实现方式中,所述车辆中包括多个显示屏,所述处理模块920具体用于:
根据所述车辆中用户的在所述车辆中的位置信息确定所述多个显示屏中的目标显示屏;在所述目标显示屏中显示所述目标注视区域的信息。
可选地,在一种可能的实现方式中,所述处理模块920还用于:
通过抬头显示HUD系统在所述车辆中显示所述目标注视区域的信息。
可选地,在一种可能的实现方式中,所述车辆中用户为所述车辆的驾驶员,或者所述车辆中的乘客。
在一种可能的实现方式中,上述识别装置900是指汽车,其中,获取模块是指汽车中的接口电路;处理模块是指汽车中的处理器。
例如,汽车中的接口电路可以通过通信网络获取配置于汽车内部的摄像头(例如,DMS摄像头或者CMS摄像头)采集的用户的视线注视区域的信息,以及获取行车记录仪拍摄的汽车行驶的环境图像,其中,DMS或者CMS可以集成在汽车中;上述本申请实施例中的识别方法可以通过软件算法实现,处理器可以从接口电路获取用户的视线注视区域的信息以及环境图像,并通过集成逻辑电路或者软件形式的指令执行本申请中的识别方法。
在一种可能的实现方式中,上述识别装置900是指汽车中的车载设备,其中,获取模块是指车载设备中的接口电路;处理模块是指车载设备中的处理器。
例如,车载设备中的接口电路可以通过通信网络获取配置于汽车内部的摄像头(例如,DMS摄像头或者CMS摄像头)采集的用户的视线注视区域的信息,以及获取行车记录仪拍摄的汽车行驶的环境图像;处理器从接口电路获取用户的视线注视区域的信息以及环境图像,并通过集成逻辑电路或者软件形式的指令执行本申请中的识别方法。
其中,上述通信网络可以是指3G蜂窝通信;例如,CDMA、EVD0、GSM/GPRS;或者,4G蜂窝通信,例如LTE;或者,5G蜂窝通信;通信网络可以利用无线上网(WiFi)与无线局域网通信;或者,通信网络可以利用红外链路、蓝牙或者紫蜂协议(ZigBee)与设备直接通信;其他无线协议,例如各种车辆通信系统,例如,通信网络可以包括一个或多个专用短程通信设备,这些设备可包括车辆和/或路边台站之间的公共和/或私有数据通信。
应理解,这里的识别装置900以功能单元的形式体现。这里的术语“模块”可以通过软件和/或硬件形式实现,对此不作具体限定。
例如,“模块”可以是实现上述功能的软件程序、硬件电路或二者结合。所述硬件电路可能包括应用特有集成电路(application specific integrated circuit,ASIC)、电子电路、用于执行一个或多个软件或固件程序的处理器(例如共享处理器、专有处理器或组处理器等)和存储器、合并逻辑电路和/或其它支持所描述的功能的合适组件。
因此,在本申请的实施例中描述的各示例的单元,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
图14是本申请一个实施例的用户感兴趣对象的识别装置的示意性框图。
图14所示的识别装置1000包括存储器1001、处理器1002、通信接口1003以及总线1004。其中,存储器1001、处理器1002、通信接口1003通过总线1004实现彼此之间的通信连接。
存储器1001可以是只读存储器(read only memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(random access memory,RAM)。存储器1001可以存储程序,当存储器1001中存储的程序被处理器1002执行时,处理器1002用于执行本申请实施例的用户感兴趣对象的识别方法的各个步骤,例如,可以执行图5至图12所示实施例的各个步骤。
处理器1002可以采用通用的中央处理器(central processing unit,CPU),微处理器,应用专用集成电路(application specific integrated circuit,ASIC),或者一个或多个集成电路,用于执行相关程序,以实现本申请方法实施例的用户感兴趣对象的识别方法。
处理器1002还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请实施例的用户感兴趣对象的识别方法的各个步骤可以通过处理器1002中的硬件的集成逻辑电路或者软件形式的指令完成。
上述处理器1002还可以是通用处理器、数字信号处理器(digital signalprocessing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(field programmable gatearray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1001,处理器1002读取存储器1001中的信息,结合其硬件完成本申请实施例中图13所示的识别装置包括的模块所需执行的功能,或者,执行本申请方法实施例的用户感兴趣对象的识别方法,例如,可以执行图5至图12所示实施例的各个步骤/功能。
通信接口1003可以使用但不限于收发器一类的收发装置,来实现识别装置1000与其他设备或通信网络之间的通信。
总线1004可以包括在识别装置1000各个部件(例如,存储器1001、处理器1002、通信接口1003)之间传送信息的通路。
应注意,尽管上述识别装置1000仅仅示出了存储器、处理器、通信接口,但是在具体实现过程中,本领域的技术人员应当理解,识别装置1000还可以包括实现正常运行所必须的其他器件。同时,根据具体需要,本领域的技术人员应当理解,上述识别装置1000还可包括实现其他附加功能的硬件器件。此外,本领域的技术人员应当理解,上述识别装置1000也可仅仅包括实现本申请实施例所必须的器件,而不必包括图14中所示的全部器件。
应理解,本申请实施例所示的识别装置可以是车辆中的车载设备,或者,也可以是配置于车载设备中的芯片。
本申请实施例还提供一种汽车,该车辆包括执行上述本申请实施例中的用户感兴趣对象的识别装置。
本申请实施例还提供一种车辆系统,包括配置于车辆内部的摄像头、行车记录仪以及识别装置上述本申请实施例中的用户感兴趣对象的识别装置。
本申请实施例还提供一种芯片,该芯片包括收发单元和处理单元。其中,收发单元可以是输入输出电路、通信接口;处理单元为该芯片上集成的处理器或者微处理器或者集成电路;该芯片可以执行上述方法实施例中的用户感兴趣对象的识别方法。
本申请实施例还提供一种计算机可读存储介质,其上存储有指令,该指令被执行时执行上述方法实施例中的用户感兴趣对象的识别方法。
本申请实施例还提供一种包含指令的计算机程序产品,该指令被执行时执行上述方法实施例中的用户感兴趣对象的识别方法。
应理解,本申请实施例中的处理器可以为中央处理单元(central processingunit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的随机存取存储器(random accessmemory,RAM)可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行所述计算机指令或计算机程序时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系,但也可能表示的是一种“和/或”的关系,具体可参考前后文进行理解。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。
应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (26)

1.一种用户感兴趣对象的识别方法,其特征在于,包括:
获取用户的视线注视区域的信息以及所述用户对应的环境图像;
根据所述环境图像得到所述用户在所述环境图像中的第一注视区域的信息,其中,所述第一注视区域用于表示通过人体物理特征确定的敏感区域;
根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,其中,所述目标注视区域用于表示在所述环境图像中所述用户注视的目标对象所在的区域。
2.如权利要求1所述的识别方法,其特征在于,所述根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,包括:
根据所述视线注视区域与所述第一注视区域的重叠区域确定所述目标注视区域。
3.如权利要求1或2所述的识别方法,其特征在于,所述用户为车辆中用户,所述获取用户的视线注视区域的信息以及所述用户对应的环境图像,包括:
获取所述车辆中用户的视线注视区域的信息以及所述车辆的行车记录仪的图像,其中,所述车辆中用户的视线注视区域用于表示所述车辆中用户在所述车辆外部的注视区域的信息;
所述根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,包括:
根据所述车辆中用户的视线注视区域的信息与所述行车记录仪的图像中所述第一注视区域的信息确定所述驾驶员的目标注视区域。
4.如权利要求3所述的识别方法,其特征在于,所述获取所述车辆中用户的视线注视区域的信息以及所述车辆的行车记录仪的图像,包括:
获取N帧图像中所述车辆中用户的视线注视区域的信息以及M帧所述行车记录仪的图像,其中,所述N帧图像与所述M帧所述行车记录仪的图像是在相同的起始时刻与终止时刻内获取的图像,N、M均为正整数;
所述根据所述车辆中用户的视线注视区域的信息与所述行车记录仪的图像中所述第一注视区域的信息确定所述驾驶员的目标注视区域,包括:
确定所述N帧图像中所述车辆中用户的视线注视区域的差异满足第一预设范围;
确定所述M帧所述行车记录仪的图像中所述第一注视区域的差异满足第二预设范围内;
根据所述N帧图像中所述车辆中用户的视线注视区域与所述M帧所述行车记录仪的图像中所述第一注视区域确定重叠区域;
根据所述重叠区域确定所述车辆中用户的目标注视区域。
5.如权利要求4中所述的识别方法,其特征在于,所述视线注视区域的差异是指所述视线注视区域的位置差异;所述第一注视区域的差异是指所述第一注视区域的位置差异。
6.如权利要求3至5中任一项所述的识别方法,其特征在于,还包括:
将所述车辆中用户的视线注视区域映射至所述行车记录仪的图像所在成像平面;或者,
将所述行车记录仪的图像映射至所述车辆中用户的视线注视区域所在成像平面。
7.如权利要求3至6中任一项所述的识别方法,其特征在于,还包括:
在所述车辆的显示屏中显示所述目标注视区域的信息。
8.如权利要求7所述的识别方法,其特征在于,所述车辆中包括多个显示屏,所述在所述车辆的显示屏中显示所述目标注视区域的信息,包括:
根据所述车辆中用户的在所述车辆中的位置信息确定所述多个显示屏中的目标显示屏;
在所述目标显示屏中显示所述目标注视区域的信息。
9.如权利要求3至6中任一项所述的识别方法,其特征在于,还包括:
通过抬头显示HUD系统在所述车辆中显示所述目标注视区域的信息。
10.如权利要求3至9中任一项所述的识别方法,其特征在于,所述车辆中用户为所述车辆的驾驶员,或者所述车辆中的乘客。
11.一种用户感兴趣对象的识别装置,其特征在于,包括:
获取模块,用于获取用户的视线注视区域的信息以及所述用户对应的环境图像;
处理模块,用于根据所述环境图像得到所述用户在所述环境图像中的第一注视区域的信息,其中,所述第一注视区域用于表示通过人体物理特征确定的敏感区域;根据所述视线注视区域的信息与所述第一注视区域的信息得到所述用户的目标注视区域,其中,所述目标注视区域用于表示在所述环境图像中所述用户注视的目标对象所在的区域。
12.如权利要求11所述的识别装置,其特征在于,所述处理模块具体用于:
根据所述视线注视区域与所述第一注视区域的重叠区域确定所述目标注视区域。
13.如权利要求11或12所述的识别装置,其特征在于,所述用户为车辆中用户,所述获取模块具体用于:
获取所述车辆中用户的视线注视区域的信息以及所述车辆的行车记录仪的图像,其中,所述车辆中用户的视线注视区域用于表示所述车辆中用户在所述车辆外部的注视区域的信息;
所述处理模块具体用于:
根据所述车辆中用户的视线注视区域的信息与所述行车记录仪的图像中所述第一注视区域的信息确定所述车辆中用户的目标注视区域。
14.如权利要求13所述的识别装置,其特征在于,所述获取模块具体用于:
获取N帧图像中所述车辆中用户的视线注视区域的信息以及M帧所述行车记录仪的图像,其中,所述N帧图像与所述M帧所述行车记录仪的图像是在相同的起始时刻与终止时刻内获取的图像,N、M为正整数;
所述处理模块具体用于:
确定所述N帧图像中所述车辆中用户的视线注视区域的差异满足第一预设范围;
确定所述M帧所述行车记录仪的图像中所述第一注视区域的差异满足第二预设范围内;
根据所述N帧图像中所述车辆中用户的视线注视区域与所述M帧所述行车记录仪的图像中所述第一注视区域确定重叠区域;
根据所述重叠区域确定所述车辆中用户的目标注视区域。
15.如权利要求14所述的识别装置,其特征在于,所述视线注视区域的差异是指所述视线注视区域的位置差异;所述第一注视区域的差异是指所述第一注视区域的位置差异。
16.如权利要求13至15中任一项所述的识别装置,其特征在于,所述处理模块还用于:
将所述车辆中用户的视线注视区域映射至所述行车记录仪的图像所在成像平面;或者,
将所述行车记录仪的图像映射至所述车辆中用户的视线注视区域所在成像平面。
17.如权利要求13至16中任一项所述的识别装置,其特征在于,所述处理模块还用于:
在所述车辆的显示屏中显示所述目标注视区域的信息。
18.如权利要求17所述的识别装置,其特征在于,所述车辆中包括多个显示屏,所述处理模块具体用于:
根据所述车辆中用户的在所述车辆中的位置信息确定所述多个显示屏中的目标显示屏;
在所述目标显示屏中显示所述目标注视区域的信息。
19.如权利要求13至16中任一项所述的识别装置,其特征在于,所述处理模块还用于:
通过抬头显示HUD系统在所述车辆中显示所述目标注视区域的信息。
20.如权利要求13至19中任一项所述的识别装置,其特征在于,所述车辆中用户为所述车辆的驾驶员,或者所述车辆中的乘客。
21.如权利要求13至20中任一项所述的识别装置,其特征在于,所述识别装置为所述车辆中的车载设备。
22.一种汽车,其特征在于,包括权利要求11至21任一项所述的识别装置。
23.一种车辆系统,其特征在于,包括配置于车辆内部的摄像头、行车记录仪以及权利要求11至21任一项所述的识别装置。
24.一种用户感兴趣对象的识别装置,其特征在于,包括处理器和存储器,所述存储器用于存储程序指令,所述处理器用于调用所述程序指令来执行权利要求1至10中任一项所述的识别方法。
25.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序指令,当所述程序指令由处理器运行时,实现权利要求1至10中任一项所述的识别方法。
26.一种芯片,其特征在于,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,以执行如权利要求1至10中任一项所述的识别方法。
CN202080004845.1A 2020-04-30 2020-04-30 用户感兴趣对象的识别方法以及识别装置 Active CN112654546B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/088243 WO2021217575A1 (zh) 2020-04-30 2020-04-30 用户感兴趣对象的识别方法以及识别装置

Publications (2)

Publication Number Publication Date
CN112654546A true CN112654546A (zh) 2021-04-13
CN112654546B CN112654546B (zh) 2022-08-02

Family

ID=75368398

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080004845.1A Active CN112654546B (zh) 2020-04-30 2020-04-30 用户感兴趣对象的识别方法以及识别装置

Country Status (4)

Country Link
US (1) US20230046258A1 (zh)
EP (1) EP4134867A4 (zh)
CN (1) CN112654546B (zh)
WO (1) WO2021217575A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221798A (zh) * 2021-05-24 2021-08-06 南京伯索网络科技有限公司 一种基于网络课堂学员积极度评价系统
CN113992885A (zh) * 2021-09-22 2022-01-28 联想(北京)有限公司 一种数据同步方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101651772A (zh) * 2009-09-11 2010-02-17 宁波大学 一种基于视觉注意的视频感兴趣区域的提取方法
CN102063623A (zh) * 2010-12-28 2011-05-18 中南大学 一种结合自底向上和自顶向下的图像感兴趣区域提取方法
WO2016161954A1 (en) * 2015-04-10 2016-10-13 Beijing Zhigu Rui Tuo Tech Co., Ltd. Information acquiring method, information acquiring apparatus, and user equipment
CN107920734A (zh) * 2015-06-03 2018-04-17 托比股份公司 视线检测方法和装置
CN109917920A (zh) * 2019-03-14 2019-06-21 百度在线网络技术(北京)有限公司 车载投射处理方法、装置、车载设备及存储介质
CN110850974A (zh) * 2018-11-02 2020-02-28 英属开曼群岛商麦迪创科技股份有限公司 用于侦测意图兴趣点的方法及其系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103246350A (zh) * 2013-05-14 2013-08-14 中国人民解放军海军航空工程学院 基于感兴趣区实现辅助信息提示的人机接口设备及方法
US10216267B2 (en) * 2014-05-08 2019-02-26 Sony Corporation Portable electronic equipment and method of controlling a portable electronic equipment
KR102263725B1 (ko) * 2014-11-21 2021-06-11 현대모비스 주식회사 주행 정보 제공 장치 및 주행 정보 제공 방법
WO2018006019A1 (en) * 2016-07-01 2018-01-04 Itay Katz System and method for driver monitoring
DE102017116702A1 (de) * 2017-07-24 2019-01-24 SMR Patents S.à.r.l. Verfahren zum Bereitstellen einer Anzeige in einem Kraftfahrzeug, sowie Kraftfahrzeug
KR102446387B1 (ko) * 2017-11-29 2022-09-22 삼성전자주식회사 전자 장치 및 그의 텍스트 제공 방법
CN111515946B (zh) * 2018-10-31 2021-07-20 杭州程天科技发展有限公司 一种人体辅助机器人的控制方法及装置
CN110929703B (zh) * 2020-02-04 2020-11-13 北京未动科技有限公司 信息确定方法、装置和电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101651772A (zh) * 2009-09-11 2010-02-17 宁波大学 一种基于视觉注意的视频感兴趣区域的提取方法
CN102063623A (zh) * 2010-12-28 2011-05-18 中南大学 一种结合自底向上和自顶向下的图像感兴趣区域提取方法
WO2016161954A1 (en) * 2015-04-10 2016-10-13 Beijing Zhigu Rui Tuo Tech Co., Ltd. Information acquiring method, information acquiring apparatus, and user equipment
CN107920734A (zh) * 2015-06-03 2018-04-17 托比股份公司 视线检测方法和装置
CN110850974A (zh) * 2018-11-02 2020-02-28 英属开曼群岛商麦迪创科技股份有限公司 用于侦测意图兴趣点的方法及其系统
CN109917920A (zh) * 2019-03-14 2019-06-21 百度在线网络技术(北京)有限公司 车载投射处理方法、装置、车载设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221798A (zh) * 2021-05-24 2021-08-06 南京伯索网络科技有限公司 一种基于网络课堂学员积极度评价系统
CN113992885A (zh) * 2021-09-22 2022-01-28 联想(北京)有限公司 一种数据同步方法及装置

Also Published As

Publication number Publication date
WO2021217575A1 (zh) 2021-11-04
CN112654546B (zh) 2022-08-02
EP4134867A4 (en) 2023-05-31
EP4134867A1 (en) 2023-02-15
US20230046258A1 (en) 2023-02-16

Similar Documents

Publication Publication Date Title
KR102043060B1 (ko) 자율 주행 장치 및 이를 구비한 차량
CN112639883B (zh) 一种相对位姿标定方法及相关装置
US9352689B2 (en) Driver assistance apparatus capable of diagnosing vehicle parts and vehicle including the same
CN110371132B (zh) 驾驶员接管评估方法及装置
CN110789533B (zh) 一种数据呈现的方法及终端设备
WO2021036592A1 (zh) 后视镜自适应调节方法及装置
CN113228620A (zh) 一种图像的获取方法以及相关设备
US20230046258A1 (en) Method and apparatus for identifying object of interest of user
US20230230368A1 (en) Information processing apparatus, information processing method, and program
WO2021217570A1 (zh) 基于隔空手势的控制方法、装置及系统
US20220224860A1 (en) Method for Presenting Face In Video Call, Video Call Apparatus, and Vehicle
CN112810603A (zh) 定位方法和相关产品
CN114257712A (zh) 控制摄像头模组补光时间的方法及装置
WO2022061702A1 (zh) 驾驶提醒的方法、装置及系统
CN115100630A (zh) 障碍物检测方法、装置、车辆、介质及芯片
CN113859265A (zh) 一种驾驶过程中的提醒方法及设备
CN113924768B (zh) 图像处理方法及装置
CN114802435B (zh) 车辆控制方法、装置、车辆、存储介质及芯片
CN111845786B (zh) 自动行驶策略的确定方法及装置
CN114852092B (zh) 方向盘脱手检测方法、装置、可读存储介质及车辆
CN111775962B (zh) 自动行驶策略的确定方法及装置
CN115082886B (zh) 目标检测的方法、装置、存储介质、芯片及车辆
CN115965947A (zh) 一种数据处理方法及装置
CN115115707A (zh) 车辆落水检测方法、车辆、计算机可读存储介质及芯片
CN114802258A (zh) 车辆控制方法、装置、存储介质及车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant