CN114461063B - 一种基于车载屏幕的人机交互方法 - Google Patents

一种基于车载屏幕的人机交互方法 Download PDF

Info

Publication number
CN114461063B
CN114461063B CN202210052616.8A CN202210052616A CN114461063B CN 114461063 B CN114461063 B CN 114461063B CN 202210052616 A CN202210052616 A CN 202210052616A CN 114461063 B CN114461063 B CN 114461063B
Authority
CN
China
Prior art keywords
interactive system
interactive
vehicle
driver
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210052616.8A
Other languages
English (en)
Other versions
CN114461063A (zh
Inventor
李选正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Space Digital Technology Co ltd
Original Assignee
Shenzhen Shikong Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Shikong Technology Group Co ltd filed Critical Shenzhen Shikong Technology Group Co ltd
Priority to CN202210052616.8A priority Critical patent/CN114461063B/zh
Publication of CN114461063A publication Critical patent/CN114461063A/zh
Application granted granted Critical
Publication of CN114461063B publication Critical patent/CN114461063B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于车载屏幕的人机交互方法,包括:设置人机交互车载显示屏;设置多个交互系统;每个交互系统的交互操作方式不同;每个交互系统的操作方式在所述车载显示屏的不同区域显示;当车载采集设备采集的驾驶者的输入信息,并将输入信息传输至所有交互系统中,确定开启相应的交互系统,在人机交互过程中,在所述车载显示屏的相应区域显示操作指引;驾驶者根据显示的操作指引进行相应的操作以实现人机交互。

Description

一种基于车载屏幕的人机交互方法
技术领域
本发明涉及人机交互技术领域,具体涉及一种基于车载屏幕的人机交互方法。
背景技术
随着科技的迅猛发展,人机交互技术渗透到日常生活中的方方面面,也是可穿戴设备等新兴技术的重要发展方向。
目前在人机交互中,用户做出特定手势、特定手型的指令,人机交互系统识别到该特定手势或该特定手型时输出指令。但通过做出特定手势、特定手型来触发指令的应用场景有限,存在很多用户不方便或不可能做出该特定手势、特定手型的场合,或者很多用户根本不熟悉控制人机交互系统的指令,针对不同的交互系统,可能指令都是不同的,因此,针对这种情况,用户使用人机交互系统并不能带来便利,因此,亟需一种可以为用户使用交互系统带来便利,并保证好的体验效果的方案。
发明内容
本发明提供一种基于车载屏幕的人机交互方法,以解决现有技术中存在的上述问题。
本发明提供一种基于车载屏幕的人机交互方法,包括:
S100,设置人机交互车载显示屏;
S200,设置多个交互系统;每个交互系统的交互操作方式不同;
S300,每个交互系统的操作方式在所述车载显示屏的不同区域显示;
S400,当车载采集设备采集的驾驶者的输入信息,并将输入信息传输至所有交互系统中,确定开启相应的交互系统,在人机交互过程中,在所述车载显示屏的相应区域显示操作指引;
S500,驾驶者根据显示的操作指引进行相应的操作以实现人机交互。
优选的,所述S100包括:
S101,在所述车载显示屏上设置三个区域;
S102,针对所述交互系统设置第一交互系统和第二交互系统;
S103,将第一区域设置为第一交互系统对应的操作区域;将第二区域设置为第二交互系统对应的操作区域;将第三区域设置为第一交互系统和第二交互系统的操作验证区域。
优选的,所述S102之后包括:
S104,将第一交互系统和第二交互系统进行匹配,并将匹配关系标记在所述交互系统中;
S105,若所述第一交互系统的操作方式与第二交互系统的操作方式发生冲突,将所述第一交互系统与所述第二交互系统的匹配关系拆解;
S106,通过学习驾驶者习惯,将驾驶者从未用过的两个交互系统的匹配关系拆解。
优选的,所述S200包括:
S201,设置手势操作的交互系统;
S202,设置触控操作的交互系统;
S203,设置人脸表情操作的交互系统;
S204,设置语音识别的交互系统;
S205,设置头部或手部动作操作的交互系统;
S206,设置非接触式感应操作的交互系统。
优选的,所述S400包括:
S401,每个交互系统设置有相应的开启指令;
S402,判断当车载采集设备采集的驾驶者的输入信息是否有与开启指令相匹配,若匹配,则开启相应的交互系统;
S403,判断开启的交互系统是否超过两个;
S404,若是,选择匹配度最高的两个交互系统作为此次驾驶者使用的交互系统,分别设置为第一交互系统和第二交互系统。
优选的,所述S103,包括:
S1031,将所述第一交互系统和第二交互系统之间建立验证关系;
S1032,将所述验证关系设定为主验证端和从验证端,所述第一交互系统为主验证端,所述第二交互系统为从验证端;
S1033,所述第二交互系统在第二区域显示相应的操作展示,若驾驶者输入的信息与显示的操作方式一致,则主动向所述第一交互系统发送通过指令,所述第一交互系统在所述第一区域显示低等级的操作验证;若驾驶者输入的信息与显示的操作方式不一致,则主动向所述第一交互系统发送未通过指令,所述第一交互系统在所述第一区域显示高等级的操作验证;
S1034,在所述第三区域显示所述S1033的过程。
优选的,所述S201的手势操作的交互系统包括:
S2011,在所述手势操作的交互系统中设置若干个标准的手势操作;
S2012,基于每一个标准的手势操作,形成若干个具有不同程度形变的扩展手势操作;
S2013,将所有的标准的手势操作与对应的扩展出的所有所述扩展手势操作之间分别建立索引关系;
S2014,基于所述索引关系形成交互系统的操作比对数据库。
优选的,所述S206包括:
S2061,在所述车载显示屏内设置磁性触控板;
S2062,驾驶者的手上佩戴相应的磁控组件;
S2063,通过所述磁控组件采用非接触的方式控制所述磁性触控板。
优选的,所述S500包括:
S501,设置人脸识别装置;
S502,通过人脸识别装置识别驾驶者的身份;
S503,所述人机交互系统上设置定时单元,当驾驶者通过人脸识别装置后,启动所述定时单元定时;
S504,设定定时时间为2个小时,若定时时间到,则通过所述车载显示屏提醒驾驶者休息。
优选的,所述S500包括:
S505,在所述车载显示屏内的控制系统上设置无线射频读写器;
S506,驾驶者的佩戴设置有无线射频标签的手环,当驾驶者开始驾驶车辆时,通过手环与读写器的无线射频信号传输,确认驾驶者的身份,并在车载显示屏上显示驾驶者的身份信息;
S507,所述人机交互系统向所述无线射频读写器中输入信息,所述无线射频读写器通过主动信息传输方式传输至驾驶者佩戴的手环上的无线射频标签内。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种基于车载屏幕的人机交互方法的流程图;
图2为本发明实施例中基于车载屏幕的人机交互方法的另一种方法流程图;
图3为本发明实施例中基于车载屏幕的人机交互方法的另一种方法流程图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提供了一种基于车载屏幕的人机交互方法,请参照图1-图3所示,该方法包括以下几个步骤:
S100,设置人机交互车载显示屏;
S200,设置多个交互系统;每个交互系统的交互操作方式不同;
S300,每个交互系统的操作方式在所述车载显示屏的不同区域显示;
S400,当车载采集设备采集的驾驶者的输入信息,并将输入信息传输至所有交互系统中,确定开启相应的交互系统,在人机交互过程中,在所述车载显示屏的相应区域显示操作指引;
S500,驾驶者根据显示的操作指引进行相应的操作以实现人机交互。
上述技术方案的工作原理为:本申请采用的方案是设置人机交互车载显示屏;设置多个交互系统;每个交互系统的交互操作方式不同;每个交互系统的操作方式在所述车载显示屏的不同区域显示;当车载采集设备采集的驾驶者的输入信息,并将输入信息传输至所有交互系统中,确定开启相应的交互系统,在人机交互过程中,在所述车载显示屏的相应区域显示操作指引;驾驶者根据显示的操作指引进行相应的操作以实现人机交互。
上述技术方案的有益效果为:采用本实施例提供的方案设置人机交互车载显示屏;设置多个交互系统;每个交互系统的交互操作方式不同;每个交互系统的操作方式在所述车载显示屏的不同区域显示;当车载采集设备采集的驾驶者的输入信息,并将输入信息传输至所有交互系统中,确定开启相应的交互系统,在人机交互过程中,在所述车载显示屏的相应区域显示操作指引;驾驶者根据显示的操作指引进行相应的操作以实现人机交互。
利用车载显示屏提升用户使用交互系统的便利性,在车载显示屏上设置不同区域,通过不同区域中对应不同的交互系统,实现多个交互系统统一对车载系统进行控制的方式,由于存在不同的交互系统,而不同的交互系统采用的交互操作方式不同,因此,为了提升用户使用不同交互系统的便利性,将不同操作系统对应的操作方式设置相应的操作指引,用户只需要按照操作指引的方式操作即可,不需要额外去记一些操作指令,极大提升用户体验。
另外,使用不同的交互系统共同控制车载系统,适用不同的用户习惯,进一步提升用户体验。
在另一实施例中,所述S100包括:
S101,在所述车载显示屏上设置三个区域;
S102,针对所述交互系统设置第一交互系统和第二交互系统;
S103,将第一区域设置为第一交互系统对应的操作区域;将第二区域设置为第二交互系统对应的操作区域;将第三区域设置为第一交互系统和第二交互系统的操作验证区域。
上述技术方案的工作原理为:本申请采用的方案是所述设置人机交互车载显示屏包括:在所述车载显示屏上设置三个区域;针对所述交互系统设置第一交互系统和第二交互系统;将第一区域设置为第一交互系统对应的操作区域;将第二区域设置为第二交互系统对应的操作区域;将第三区域设置为第一交互系统和第二交互系统的操作验证区域。
上述技术方案的有益效果为:采用本实施例提供的方案所述设置人机交互车载显示屏包括:在所述车载显示屏上设置三个区域;针对所述交互系统设置第一交互系统和第二交互系统;将第一区域设置为第一交互系统对应的操作区域;将第二区域设置为第二交互系统对应的操作区域;将第三区域设置为第一交互系统和第二交互系统的操作验证区域。
车载显示屏显示三个区域,不同的区域显示不同的内容,一般用户可以选定两个交互系统,因此,其中两个区域是显示相应的交互系统对应的操作指引,另一个区域是显示两个交互系统的操作验证,通过同时使用两个交互系统控制同一功能的情况,并且通过两个交互系统互相验证的方式,保证用户下达的指令不被交互系统误解,避免因人机交互系统的误判造成严重的后果。因此,引入两个交互系统的互相验证机制,保证用户安全性。
另外,针对车载显示屏上的三个区域,每个区域对应的显示内容不同,但同时可以设置区域显示模块,通过该区域显示模块实现根据不同情况,三个区域自动按照区域显示模块分配的内容进行显示。
例如,原本设置的是第一区域显示第一交互系统的内容,第二区域显示第二交互系统的内容,但第一区域的面积大于第二区域的面积,但第一交互系统需要展示的内容少于第二交互系统需要展示的内容,在此情况下,可以通过区域显示模块修改原来的设置,将第一区域分配给第二交互系统,而第二区域分配给第一交互系统。
而所述显示区域模块的自动分配原则是首先判断每个交互系统需要展示的内容多少以及展示所需要的面积大小,而针对面积的大小,可根据不规则面积的方式进行计算,计算方式如下:
将不规则面积建立矢量图,形成多个三角形矢量面积,将所有三角形矢量面积整合形成不规则面积总值,而计算每个三角形矢量面积采用的方式是矢量外积的方式计算的,计算公式如下:
Figure BDA0003474926440000071
其中,Sω为区域ω的面积,xk为第k个顶点的横向坐标值(x轴),yk为第k个顶点的纵向坐标值(y轴),xk+1第k+1个顶点的横向坐标值,yk+1为第k+1个顶点的纵向坐标值,k=1,2,3…m,m为顶点的数量。
通过上述计算公式优化了将不规则面积划分为多个三角形,通过计算多个三角形面积计算不规则面积的方式的繁琐过程,采用矢量外积的方式计算简单,步骤简洁。
在另一实施例中,所述S102之后包括:
S104,将第一交互系统和第二交互系统进行匹配,并将匹配关系标记在所述交互系统中;
S105,若所述第一交互系统的操作方式与第二交互系统的操作方式发生冲突,将所述第一交互系统与所述第二交互系统的匹配关系拆解;
S106,通过学习驾驶者习惯,将驾驶者从未用过的两个交互系统的匹配关系拆解。
上述技术方案的工作原理为:本申请采用的方案是将第一交互系统和第二交互系统进行匹配,并将匹配关系标记在所述交互系统中;若所述第一交互系统的操作方式与第二交互系统的操作方式发生冲突,将所述第一交互系统与所述第二交互系统的匹配关系拆解;通过学习驾驶者习惯,将驾驶者从未用过的两个交互系统的匹配关系拆解。
上述技术方案的有益效果为:采用本实施例提供的方案将第一交互系统和第二交互系统进行匹配,并将匹配关系标记在所述交互系统中;若所述第一交互系统的操作方式与第二交互系统的操作方式发生冲突,将所述第一交互系统与所述第二交互系统的匹配关系拆解;通过学习驾驶者习惯,将驾驶者从未用过的两个交互系统的匹配关系拆解。
车载显示屏显示三个区域,不同的区域显示不同的内容,一般用户可以选定两个交互系统,因此,其中两个区域是显示相应的交互系统对应的操作指引,另一个区域是显示两个交互系统的操作验证,通过同时使用两个交互系统控制同一功能的情况,并且通过两个交互系统互相验证的方式,保证用户下达的指令不被交互系统误解,避免因人机交互系统的误判造成严重的后果。因此,引入两个交互系统的互相验证机制,保证用户安全性。
在另一实施例中,所述S200包括:
S201,设置手势操作的交互系统;
S202,设置触控操作的交互系统;
S203,设置人脸表情操作的交互系统;
S204,设置语音识别的交互系统;
S205,设置头部或手部动作操作的交互系统;
S206,设置非接触式感应操作的交互系统。
上述技术方案的工作原理为:本申请采用的方案是设置不同交互系统的不同操作方式,具体如下:设置手势操作的交互系统;设置触控操作的交互系统;设置人脸表情操作的交互系统;设置语音识别的交互系统;设置头部或手部动作操作的交互系统;设置非接触式感应操作的交互系统。
上述技术方案的有益效果为:采用本实施例提供的方案设置不同交互系统的不同操作方式,具体如下:设置手势操作的交互系统;设置触控操作的交互系统;设置人脸表情操作的交互系统;设置语音识别的交互系统;设置头部或手部动作操作的交互系统;设置非接触式感应操作的交互系统。
在另一实施例中,所述S400包括:
S401,每个交互系统设置有相应的开启指令;
S402,判断当车载采集设备采集的驾驶者的输入信息是否有与开启指令相匹配,若匹配,则开启相应的交互系统;
S403,判断开启的交互系统是否超过两个;
S404,若是,选择匹配度最高的两个交互系统作为此次驾驶者使用的交互系统,分别设置为第一交互系统和第二交互系统。
上述技术方案的工作原理为:本申请采用的方案是每个交互系统设置有相应的开启指令;判断当车载采集设备采集的驾驶者的输入信息是否有与开启指令相匹配,若匹配,则开启相应的交互系统;判断开启的交互系统是否超过两个;若是,选择匹配度最高的两个交互系统作为此次驾驶者使用的交互系统,分别设置为第一交互系统和第二交互系统。
上述技术方案的有益效果为:采用本实施例提供的方案每个交互系统设置有相应的开启指令;判断当车载采集设备采集的驾驶者的输入信息是否有与开启指令相匹配,若匹配,则开启相应的交互系统;判断开启的交互系统是否超过两个;若是,选择匹配度最高的两个交互系统作为此次驾驶者使用的交互系统,分别设置为第一交互系统和第二交互系统。
通过判断当车载采集设备采集的驾驶者的输入信息是否有与开启指令相匹配,确定开启的交互系统,该开启和匹配过程为自动化智能化过程,不需要用户进行操作即可。
在另一实施例中,所述S103,包括:
S1031,将所述第一交互系统和第二交互系统之间建立验证关系;
S1032,将所述验证关系设定为主验证端和从验证端,所述第一交互系统为主验证端,所述第二交互系统为从验证端;
S1033,所述第二交互系统在第二区域显示相应的操作展示,若驾驶者输入的信息与显示的操作方式一致,则主动向所述第一交互系统发送通过指令,所述第一交互系统在所述第一区域显示低等级的操作验证;若驾驶者输入的信息与显示的操作方式不一致,则主动向所述第一交互系统发送未通过指令,所述第一交互系统在所述第一区域显示高等级的操作验证;
S1034,在所述第三区域显示所述S1033的过程。
上述技术方案的工作原理为:本申请采用的方案是将所述第一交互系统和第二交互系统之间建立验证关系;将所述验证关系设定为主验证端和从验证端,所述第一交互系统为主验证端,所述第二交互系统为从验证端;所述第二交互系统在第二区域显示相应的操作展示,若驾驶者输入的信息与显示的操作方式一致,则主动向所述第一交互系统发送通过指令,所述第一交互系统在所述第一区域显示低等级的操作验证;若驾驶者输入的信息与显示的操作方式不一致,则主动向所述第一交互系统发送未通过指令,所述第一交互系统在所述第一区域显示高等级的操作验证;在所述第三区域显示所述S1033的过程。
上述技术方案的有益效果为:采用本实施例提供的方案将所述第一交互系统和第二交互系统之间建立验证关系;将所述验证关系设定为主验证端和从验证端,所述第一交互系统为主验证端,所述第二交互系统为从验证端;所述第二交互系统在第二区域显示相应的操作展示,若驾驶者输入的信息与显示的操作方式一致,则主动向所述第一交互系统发送通过指令,所述第一交互系统在所述第一区域显示低等级的操作验证;若驾驶者输入的信息与显示的操作方式不一致,则主动向所述第一交互系统发送未通过指令,所述第一交互系统在所述第一区域显示高等级的操作验证;在所述第三区域显示所述S1033的过程。
通过设置主从关系,确定交互系统之间的关系,方便设置控制关系,进一步提升智能化自动化的效率。
在另一实施例中,所述S201的手势操作的交互系统包括:
S2011,在所述手势操作的交互系统中设置若干个标准的手势操作;
S2012,基于每一个标准的手势操作,形成若干个具有不同程度形变的扩展手势操作;
S2013,将所有的标准的手势操作与对应的扩展出的所有所述扩展手势操作之间分别建立索引关系;
S2014,基于所述索引关系形成交互系统的操作比对数据库。
上述技术方案的工作原理为:本申请采用的方案是所述手势操作的交互系统包括:在所述手势操作的交互系统中设置若干个标准的手势操作;基于每一个标准的手势操作,形成若干个具有不同程度形变的扩展手势操作;将所有的标准的手势操作与对应的扩展出的所有所述扩展手势操作之间分别建立索引关系;基于所述索引关系形成交互系统的操作比对数据库。
上述技术方案的有益效果为:采用本实施例提供的方案所述手势操作的交互系统包括:在所述手势操作的交互系统中设置若干个标准的手势操作;基于每一个标准的手势操作,形成若干个具有不同程度形变的扩展手势操作;将所有的标准的手势操作与对应的扩展出的所有所述扩展手势操作之间分别建立索引关系;基于所述索引关系形成交互系统的操作比对数据库。
在另一实施例中,所述S206包括:
S2061,在所述车载显示屏内设置磁性触控板;
S2062,驾驶者的手上佩戴相应的磁控组件;
S2063,通过所述磁控组件采用非接触的方式控制所述磁性触控板。
上述技术方案的工作原理为:本申请采用的方案是在所述车载显示屏内设置磁性触控板;驾驶者的手上佩戴相应的磁控组件;通过所述磁控组件采用非接触的方式控制所述磁性触控板。
上述技术方案的有益效果为:采用本实施例提供的方案在所述车载显示屏内设置磁性触控板;驾驶者的手上佩戴相应的磁控组件;通过所述磁控组件采用非接触的方式控制所述磁性触控板。
设置非接触的控制操作方式方便用户的操作,减少操作条件也属于为用户带来便利的一个方面。
在另一实施例中,所述S500包括:
S501,设置人脸识别装置;
S502,通过人脸识别装置识别驾驶者的身份;
S503,所述人机交互系统上设置定时单元,当驾驶者通过人脸识别装置后,启动所述定时单元定时;
S504,设定定时时间为2个小时,若定时时间到,则通过所述车载显示屏提醒驾驶者休息。
上述技术方案的工作原理为:本申请采用的方案是设置人脸识别装置;通过人脸识别装置识别驾驶者的身份;所述人机交互系统上设置定时单元,当驾驶者通过人脸识别装置后,启动所述定时单元定时;设定定时时间为2个小时,若定时时间到,则通过所述车载显示屏提醒驾驶者休息。
上述技术方案的有益效果为:采用本实施例提供的方案设置人脸识别装置;通过人脸识别装置识别驾驶者的身份;所述人机交互系统上设置定时单元,当驾驶者通过人脸识别装置后,启动所述定时单元定时;设定定时时间为2个小时,若定时时间到,则通过所述车载显示屏提醒驾驶者休息。
一般对疲劳驾驶是通过用户自觉性的,需要用户自己确认或计算开车时间,但是,为了实现自动化智能化,通过人机交互方式,实现一旦通过人脸识别之后,就开始计算时间,若定时时间到,则通过所述车载显示屏提醒驾驶者休息。
在另一实施例中,所述S500包括:
S505,在所述车载显示屏内的控制系统上设置无线射频读写器;
S506,驾驶者的佩戴设置有无线射频标签的手环,当驾驶者开始驾驶车辆时,通过手环与读写器的无线射频信号传输,确认驾驶者的身份,并在车载显示屏上显示驾驶者的身份信息;
S507,所述人机交互系统向所述无线射频读写器中输入信息,所述无线射频读写器通过主动信息传输方式传输至驾驶者佩戴的手环上的无线射频标签内。
上述技术方案的工作原理为:本申请采用的方案是在所述车载显示屏内的控制系统上设置无线射频读写器;驾驶者的佩戴设置有无线射频标签的手环,当驾驶者开始驾驶车辆时,通过手环与读写器的无线射频信号传输,确认驾驶者的身份,并在车载显示屏上显示驾驶者的身份信息;所述人机交互系统向所述无线射频读写器中输入信息,所述无线射频读写器通过主动信息传输方式传输至驾驶者佩戴的手环上的无线射频标签内。
上述技术方案的有益效果为:采用本实施例提供的方案在所述车载显示屏内的控制系统上设置无线射频读写器;驾驶者的佩戴设置有无线射频标签的手环,当驾驶者开始驾驶车辆时,通过手环与读写器的无线射频信号传输,确认驾驶者的身份,并在车载显示屏上显示驾驶者的身份信息;所述人机交互系统向所述无线射频读写器中输入信息,所述无线射频读写器通过主动信息传输方式传输至驾驶者佩戴的手环上的无线射频标签内。
通过设置无线射频读写器和无线射频标签的手环的方式,提升数据传输的方便性,用户只需要将无线射频读写器内容进行修改,通过无线射频读写器即可实时更改用户佩戴的手环中无线射频标签内的内容信息。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (8)

1.一种基于车载屏幕的人机交互方法,其特征在于,包括:
S100,设置人机交互车载显示屏;
S200,设置多个交互系统;每个交互系统的交互操作方式不同;
S300,每个交互系统的操作方式在所述车载显示屏的不同区域显示;
S400,当车载采集设备采集的驾驶者的输入信息,并将输入信息传输至所有交互系统中,确定开启相应的交互系统,在人机交互过程中,在所述车载显示屏的相应区域显示操作指引;
S500,驾驶者根据显示的操作指引进行相应的操作以实现人机交互;
所述S100包括:
S101,在所述车载显示屏上设置三个区域;
S102,针对所述交互系统设置第一交互系统和第二交互系统;
S103,将第一区域设置为第一交互系统对应的操作区域;将第二区域设置为第二交互系统对应的操作区域;将第三区域设置为第一交互系统和第二交互系统的操作验证区域;
所述S103,包括:
S1031,将所述第一交互系统和第二交互系统之间建立验证关系;
S1032,将所述验证关系设定为主验证端和从验证端,所述第一交互系统为主验证端,所述第二交互系统为从验证端;
S1033,所述第二交互系统在第二区域显示相应的操作展示,若驾驶者输入的信息与显示的操作方式一致,则主动向所述第一交互系统发送通过指令,所述第一交互系统在所述第一区域显示低等级的操作验证;若驾驶者输入的信息与显示的操作方式不一致,则主动向所述第一交互系统发送未通过指令,所述第一交互系统在所述第一区域显示高等级的操作验证;
S1034,在所述第三区域显示所述S1033的过程。
2.根据权利要求1所述的基于车载屏幕的人机交互方法,其特征在于,所述S102之后包括:
S104,将第一交互系统和第二交互系统进行匹配,并将匹配关系标记在所述交互系统中;
S105,若所述第一交互系统的操作方式与第二交互系统的操作方式发生冲突,将所述第一交互系统与所述第二交互系统的匹配关系拆解;
S106,通过学习驾驶者习惯,将驾驶者从未用过的两个交互系统的匹配关系拆解。
3.根据权利要求1所述的基于车载屏幕的人机交互方法,其特征在于,所述S200包括:
S201,设置手势操作的交互系统;
S202,设置触控操作的交互系统;
S203,设置人脸表情操作的交互系统;
S204,设置语音识别的交互系统;
S205,设置头部或手部动作操作的交互系统;
S206,设置非接触式感应操作的交互系统。
4.根据权利要求2所述的基于车载屏幕的人机交互方法,其特征在于,所述S400包括:
S401,每个交互系统设置有相应的开启指令;
S402,判断当车载采集设备采集的驾驶者的输入信息是否有与开启指令相匹配,若匹配,则开启相应的交互系统;
S403,判断开启的交互系统是否超过两个;
S404,若是,选择匹配度最高的两个交互系统作为此次驾驶者使用的交互系统,分别设置为第一交互系统和第二交互系统。
5.根据权利要求3所述的基于车载屏幕的人机交互方法,其特征在于,所述S201的手势操作的交互系统包括:
S2011,在所述手势操作的交互系统中设置若干个标准的手势操作;
S2012,基于每一个标准的手势操作,形成若干个具有不同程度形变的扩展手势操作;
S2013,将所有的标准的手势操作与对应的扩展出的所有所述扩展手势操作之间分别建立索引关系;
S2014,基于所述索引关系形成交互系统的操作比对数据库。
6.根据权利要求3所述的基于车载屏幕的人机交互方法,其特征在于,所述S206包括:
S2061,在所述车载显示屏内设置磁性触控板;
S2062,驾驶者的手上佩戴相应的磁控组件;
S2063,通过所述磁控组件采用非接触的方式控制所述磁性触控板。
7.根据权利要求1所述的基于车载屏幕的人机交互方法,其特征在于,所述S500包括:
S501,设置人脸识别装置;
S502,通过人脸识别装置识别驾驶者的身份;
S503,所述人机交互系统上设置定时单元,当驾驶者通过人脸识别装置后,启动所述定时单元定时;
S504,设定定时时间为2个小时,若定时时间到,则通过所述车载显示屏提醒驾驶者休息。
8.根据权利要求1所述的基于车载屏幕的人机交互方法,其特征在于,所述S500包括:
S505,在所述车载显示屏内的控制系统上设置无线射频读写器;
S506,驾驶者佩戴设置有无线射频标签的手环,当驾驶者开始驾驶车辆时,通过手环与读写器的无线射频信号传输,确认驾驶者的身份,并在车载显示屏上显示驾驶者的身份信息;
S507,所述人机交互系统向所述无线射频读写器中输入信息,所述无线射频读写器通过主动信息传输方式传输至驾驶者佩戴的手环上的无线射频标签内。
CN202210052616.8A 2022-01-18 2022-01-18 一种基于车载屏幕的人机交互方法 Active CN114461063B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210052616.8A CN114461063B (zh) 2022-01-18 2022-01-18 一种基于车载屏幕的人机交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210052616.8A CN114461063B (zh) 2022-01-18 2022-01-18 一种基于车载屏幕的人机交互方法

Publications (2)

Publication Number Publication Date
CN114461063A CN114461063A (zh) 2022-05-10
CN114461063B true CN114461063B (zh) 2022-09-20

Family

ID=81410477

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210052616.8A Active CN114461063B (zh) 2022-01-18 2022-01-18 一种基于车载屏幕的人机交互方法

Country Status (1)

Country Link
CN (1) CN114461063B (zh)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101262700B1 (ko) * 2011-08-05 2013-05-08 삼성전자주식회사 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치
CN102411815B (zh) * 2011-08-31 2013-11-06 湖南长城信息金融设备有限责任公司 Mmi操作指引与设备动作无缝连接方法及实现装置
EP2573727A1 (en) * 2011-09-21 2013-03-27 Allianz Telematics S.p.A. Telematics on-board unit for vehicles
CN102646016B (zh) * 2012-02-13 2016-03-02 百纳(武汉)信息技术有限公司 显示手势语音交互统一界面的用户终端及其显示方法
US20140006944A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Visual UI Guide Triggered by User Actions
US9106736B1 (en) * 2014-04-13 2015-08-11 Zoom International S.R.O. Multiple interaction live monitoring
CN104965592A (zh) * 2015-07-08 2015-10-07 苏州思必驰信息科技有限公司 基于语音和手势识别的多模态非触摸人机交互方法及系统
US10628661B2 (en) * 2016-08-09 2020-04-21 Daon Holdings Limited Methods and systems for determining user liveness and verifying user identities
US10861242B2 (en) * 2018-05-22 2020-12-08 Magic Leap, Inc. Transmodal input fusion for a wearable system
CN109727427A (zh) * 2019-02-28 2019-05-07 重庆睿驰智能科技有限公司 Dms驾驶员疲劳预警系统
CN112799499A (zh) * 2019-10-24 2021-05-14 福特全球技术公司 一种机动车辆人机交互系统和方法
CN113495620A (zh) * 2020-04-03 2021-10-12 百度在线网络技术(北京)有限公司 一种交互模式的切换方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN114461063A (zh) 2022-05-10

Similar Documents

Publication Publication Date Title
US5347477A (en) Pen-based form computer
Starner et al. Augmented reality through wearable computing
US5592566A (en) Method and apparatus for computerized recognition
US5500937A (en) Method and apparatus for editing an inked object while simultaneously displaying its recognized object
US5555363A (en) Resetting the case of text on a computer display
US8115748B2 (en) Electronically capturing handwritten data
CN104936824B (zh) 用户接口设备和输入获取方法
US5615285A (en) Method and apparatus for recognizing handwritten words
US5666438A (en) Method and apparatus for recognizing handwriting of different users of a pen-based computer system
US5680480A (en) Method and apparatus for training a recognizer
CN101379456B (zh) 在计算机系统中图形反馈的产生
CN104049745A (zh) 输入控制方法和支持该输入控制方法的电子装置
CN111344671A (zh) 电子设备及其操作方法
Chatty et al. Pen computing for air traffic control
CN108700996A (zh) 用于多输入管理的系统和方法
CN103135923A (zh) 信息阅览装置及显示控制方法
CN102378951A (zh) 用于观察符号映射的组合语音和触摸输入
KR20180132493A (ko) 스와이프 입력에 기초하여 입력 문자를 판단하는 시스템 및 방법
CN114461063B (zh) 一种基于车载屏幕的人机交互方法
CN107490956A (zh) 包含输入装置的表扣和包含此表扣的智能手表
CN109388302A (zh) 一种日程显示方法及终端设备
CN108694509A (zh) 车辆驾驶的监控方法、装置、设备及计算机可读存储介质
Toms et al. Using cluster analysis for deriving menu structures for automotive mobile multimedia applications
CN106447460A (zh) 基于购物车的物品唤醒方法和装置
CN108958511A (zh) 交互显示设备、书写控制方法、移动终端及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221021

Address after: 518000 Crown Industrial Zone Factory Building, 21 Tairan 9 Road, Tian'an Community, Shatou Street, Futian District, Shenzhen City, Guangdong Province, 1 3-storey C1303

Patentee after: SHENZHEN SPACE DIGITAL TECHNOLOGY Co.,Ltd.

Address before: 518000 Room 201, building A, No. 1 Qianhai Road, Shenzhen Qianhai cooperation zone, Shenzhen, Guangdong.

Patentee before: SHENZHEN SHIKONG TECHNOLOGY GROUP CO.,LTD.

TR01 Transfer of patent right