CN108133166B - 一种展示人员状态的方法及装置 - Google Patents
一种展示人员状态的方法及装置 Download PDFInfo
- Publication number
- CN108133166B CN108133166B CN201611092822.2A CN201611092822A CN108133166B CN 108133166 B CN108133166 B CN 108133166B CN 201611092822 A CN201611092822 A CN 201611092822A CN 108133166 B CN108133166 B CN 108133166B
- Authority
- CN
- China
- Prior art keywords
- person
- facial
- data
- visual data
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000008921 facial expression Effects 0.000 claims abstract description 78
- 230000000007 visual effect Effects 0.000 claims abstract description 65
- 230000001815 facial effect Effects 0.000 claims abstract description 57
- 210000000697 sensory organ Anatomy 0.000 claims description 37
- 230000014509 gene expression Effects 0.000 claims description 20
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 5
- 210000000056 organ Anatomy 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 5
- 230000000737 periodic effect Effects 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种展示人员状态的方法,包括:采集人员的面部数据;根据所述人员的面部数据识别所述人员的面部表情;将所述人员的面部表情转换为可视数据;显示所述可视数据。本发明还公开了了一种展示人员状态的装置。
Description
技术领域
本发明涉及信息显示技术,尤其是一种展示人员状态的方法及装置。
背景技术
现有技术中,对人员状态展示的方案主要是:
安装显示屏,通过数据线与控制电路连接,控制电路设置在操作者可触摸到的地方,控制电路包括按钮、喇叭和单片机,按钮或按钮的组合作为单片机的输入信号。单片机芯片内预设好与按钮或按钮的组合来对应的各个语句,通过按钮选择不同显示内容。
使用场景包括:当人员妨碍到别人时,可以按下某一个按钮,显示屏会显示道歉语或可爱表情,简单操作便可缓解生活中的纠纷。
这种技术方案的缺点在于:
首先,该方法需要人员手动操作,显得较为繁琐,如果应用于驾驶员,可能会引起一定的行车安全隐患;
其次,通过按钮及按钮的组合来预置一些对应的简单信息,实现方式比较原始,存在误操作的可能,且对于使用人员学习和记忆的成本较高。
发明内容
有鉴于此,本发明实施例期望提供一种展示人员状态的方法及装置,能够快捷方便的向周边驾驶员展示当前人员的状态,且无需驾驶员进行记忆。
为达到上述目的,本发明实施例的技术方案是这样实现的:
本发明实施例提供了一种展示人员状态的方法,包括:
采集人员的面部数据;
根据所述人员的面部数据识别所述人员的面部表情;
将所述人员的面部表情转换为可视数据;
显示所述可视数据。
上述方案中,所述采集人员的面部数据包括:
追踪人员的五官位置;
将所述五官位置与标准坐标进行比较;
确定所述五官位置落在标准坐标范围内,则采集人员的面部数据。
上述方案中,所述根据所述人员的面部数据识别人员的面部表情包括:
根据采集到的人员的面部数据确定五官位置坐标,将五官位置坐标与表情模板五官位置坐标进行比较;
确定在所述表情五官位置坐标临界值内时,则识别采集到的人员的面部表情。
上述方案中,所述显示所述可视数据包括:
将可视数据显示在车身一个或多个位置;和/或,
根据按键操作将可视数据显示在对应于所述按键操作的显示位置。
上述方案中,所述将所述人员的面部表情转换为可视数据之前还包括:
对接收的语音指令进行识别,识别出所述语音指令所表示的人员的面部表情,判断所述语音指令所表示的人员的面部表情与识别出的人员的面部表情是否一致,如果一致,则将人员的面部表情转换为可视数据;如果不一致,则继续采集人员的面部数据。
上述方案中,所述采集人员的面部数据,为:
周期性采集人员的面部数据;或者,
收到启动指令后开始所述采集人员的面部数据。
本发明实施例还提供了一种展示人员状态的装置,包括:采集单元,识别单元,显示单元;其中,
所述采集单元,用于采集人员的面部数据;
所述识别单元,用于根据所述人员的面部数据识别人员的面部表情,并将所述人员的面部表情转换为可视数据;
所述显示单元,用于显示所述可视数据。
上述方案中,所述识别单元包括:面部数据识别模块,面部数据转换输出模块,可视数据传输模块;其中,
面部数据识别模块,用于识别所述采集单元采集的人员面部数据,转换成人员的面部表情;
面部数据转换输出模块,用于将所述人员的面部表情转换成可视数据;
可视数据传输模块,用于将所述可视数据传输至显示单元。
上述方案中,所述装置还包括语音识别单元和判断单元,其中,
所述语音识别单元,用于接收语音指令,对语音指令进行识别,识别出所述语音指令所表示的人员的面部表情,;
所述判断单元,用于判断语音指令所表示的人员的面部表情与所述识别单元识别出的人员的面部表情是否一致,如果一致,则触发所述识别单元将人员的面部表情转换为可视数据;如果不一致,则触发采集单元继续采集人员的面部数据。
上述方案中,所述显示单元还包括按键,用于根据按键操作将可视数据显示在对应于所述按键操作的显示位置。
本发明实施例期望提供的展示人员状态方法及装置,包括:采集人员面部数据;根据所述人员面部数据识别所述人员面部表情;根据所述人员面部表情转换为可视数据;显示所述可视数据。如此,使其他人员能够根据所显示的可视数据,判断当前人员的状态,不需要人员进行过多组合关系的记忆,学习成本低。
当本发明实施例应用于驾乘人员时,能够快捷方便的向周边驾驶员展示当前人员的状态,能够避免一些类型的交通事故的发生,并能够提升行车文明。本发明实施例还能够直接在各类型车辆中利用已有的终端设备实现,实现简单方便,适用范围更广。
附图说明
图1为本发明实施例中展示人员状态方法的实现流程示意图;
图2为本发明实施例中采集人员面部数据的实现流程示意图;
图3为本发明实施例中根据人员面部数据识别人员面部表情实现流程示意图;
图4为本发明实施例中展示人员状态的装置结构示意图;
图5为本发明实施例中识别单元结构示意图。
具体实施方式
为了能够更加详尽地了解本发明实施例的特点与技术内容,下面结合附图对本发明实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本发明。
图1为本发明实施例中展示人员状态方法的实现流程示意图,如图1所示,本发明实施例中,展示人员状态方法包括以下步骤:
步骤101:采集人员的面部数据;
这里所述的面部数据包括但不限于人员面部五官位置数据;
在实际应用中,步骤101开始之前,还可以包括:设置周期性执行的时间长度;所述周期性执行的时间长度可由用户、如人员预先输入到终端中,终端接收设置操作并进行存储;也可由终端自行设置,如设置为5分钟,终端以所述时间长度为间隔周期性采集人员的面部数据;
或者,接收人员输入的启动指令,然后开始采集人员的面部数据,这样可以由人员手动控制终端的开始运行时间。
步骤102:根据所述人员的面部数据识别所述人员的面部表情;
这里,实际应用中,所述人员面部数据指的是人员面部五官的位置坐标,所述人员面部表情是指人员在感受喜悦、或高兴、或愤怒等心理活动时,面部呈现出的表情变化。
步骤103:将所述人员的面部表情转换为可视数据;
这里,实际应用中,所述的可视数据包括各类可以表示人员状态的图像信息例如表示感谢的“笑脸”图案,或者表示提醒的“感叹号”图案;和/或各类表示人员状态的文字信息,例如表示感谢的文字“谢谢”或者表示提醒的文字“请注意”。
步骤104:显示所述可视数据。
这里,所述显示所述可视数据包括:同时和/或分别在各显示位置显示表示人员状态的图像信息和/或各类表示人员状态的文字信息。
本发明实施例可以应用于驾乘人员,能够快捷方便的向周边驾驶员展示当前人员的状态;也可以应用于会议中的与会人员,使会议主持或主讲及时了解与会人员的状态,如对会议内容是否感兴趣等。
在实际应用中,所述显示所述可视数据可以同时或分别显示表示人员状态的图像信息和/或各类表示人员状态的文字信息,显示位置包括但不限于车窗、后车窗、车顶、车身周围,所述各显示位置可以显示相同或者不相同的可视数据。
进一步地,在实际应用中,所述可视数据的显示达到设定时间后,在显示位置可以擦除所述可视数据;也可以一直保持显示所述可视数据,直至下一条可视数据到达。
进一步地,所述将所述人员的面部表情转换为可视数据之前还包括:接收来自人员的语音指令,对语音指令进行识别,识别出所述语音指令所表示的人员的面部表情,判断语音指令所表示的人员的面部表情与识别出的人员的面部表情是否一致,如果一致,则将人员的面部表情转换为可视数据;如果不一致,则继续采集人员的面部数据。所述语音指令的内容可以为人员输入的与当前面部表情有关的内容,从而通过语音指令来检验面部表情识别的正确性。
进一步地,所述显示所述可视数据包括:根据用户对按键的操作将可视数据显示在对应于按键操作的显示位置。例如:按键1对应于后车窗,按键2对应于左车身,用户对按键1操作时,则终端将可视数据显示在后车窗,用户对按键2操作时,则终端将可视数据显示在左车身,从而将人员状态传递给其它车辆驾驶者或乘坐人员。
以上方法中,采集所述人员的面部数据和所述识别所述人员面部表情可由现有的带有摄像头的终端完成,如所述人员的移动终端、或者现有的面部表情捕捉装置等。
图2为本发明实施例中采集人员面部数据的实现流程示意图,如图2所示,本发明实施例中,采集人员面部数据的方法包括:
步骤201:终端追踪人员的五官位置;
步骤202:终端将所述五官位置与标准坐标进行比较,判断五官位置的坐标是否落在标准坐标范围内,如果是,执行步骤203,否则,执行步骤201;
这里,在实际应用中,终端在判断五官位置的坐标是否落在标准坐标范围内时,使用的所述标准坐标范围是预先设定在所述终端中,所述标准坐标由大量统计得到,被统计者在出现各种表情时五官位置会发生小幅度变化,例如被统计者出现微笑的表情时,嘴角会有轻微上扬,通过对大量被统计者的表情出现时的五官位置变化统计可以得到所述标准坐标,当所述终端开始运行,进行对五官位置的坐标判断时,只要所述五官位置坐标落在所述标准坐标范围内,即可确定捕捉到人员的面部,如果所述五官位置坐标落在所述标准坐标范围之外,即可确定未捕捉到人员的面部,需要所述终端重新追踪人员的五官位置。
步骤203:终端采集人员的面部数据;
这里,所述面部数据可用来识别人员面部表情。
图3为本发明实施例中根据人员面部数据识别人员面部表情实现流程示意图,如图3所示,本发明实施例中,根据人员面部数据识别人员面部表情的方法包括:
步骤301:根据采集到的人员的面部数据确定五官位置坐标;
步骤302:将五官位置坐标与表情模板五官位置坐标进行比较,判断五官位置坐标是否落在表情模板五官位置坐标临界值内,如果是,执行步骤303,否则,执行步骤301;
在实际应用中,判断五官位置坐标是否落在表情模板五官位置坐标临界值内时,使用的所述表情模板五官位置坐标是预先设定在所述终端中,当所述终端开始运行时,只要五官位置坐标落在所述表情模板五官位置坐标临界值内,即可判定人员出现了表情模板中的对应面部表情,如果所述五官位置坐标落在所述表情模板五官位置坐标临界值外,则可判定人员未出现表情模板中的对应面部表情,需要重新采集人员的面部数据确定五官位置坐标。
步骤303:识别采集到的人员的面部表情;
在实际应用中,可被识别采集到的人员面部表情包括但不限于:高兴的面部表情、感谢的面部表情、愤怒的面部表情。
为实现图1所示的方法,本发明实施例还提供了一种展示人员状态的装置,如图4所示,本发明实施例中的展示人员状态的装置包括:采集单元41,识别单元42,显示单元43;其中,
采集单元41,用于采集人员的面部数据;
识别单元42,用于根据所述人员的面部数据识别人员的面部表情,并将所述人员的面部表情转换为可视数据;
显示单元43,用于显示所述可视数据。
在实际应用中,图4所示的展示人员状态的装置中的采集单元41,识别单元42,可安装于独立硬件装置内和/或运行于现有的带有摄像头的终端内;
显示单元43可安装在包括但不限于车窗、后车窗、车顶、车身周围等位置;显示位置数量由用户自行选择,所述各显示位置可以显示相同或者不相同内容的可视数据;
显示单元还包括方向按键,用于根据用户对按键的操作将可视数据显示在对应于所述按键操作的显示位置;例如:按键1对应于后车窗,按键2对应于左车身,用户对按键1操作时,则可视数据在后车窗显示,用户对按键2操作时,则可视数据在左车身显示,从而将人员状态传递给其它车辆驾驶者或乘坐人员。
所述显示单元,还用于显示的可视数据达到设定时间后,在显示位置擦除所述可视数据。
图5为本发明实施例中识别单元结构示意图,如图5所示,本发明实施例中,识别单元结构包括:面部数据识别模块51,面部数据转换输出模块52,可视数据传输模块53;其中,
面部数据识别模块51,用于识别所述采集单元采集的人员的面部数据,转换成人员的面部表情;
面部数据转换输出模块52,用于将所述人员的面部表情转换成可视数据;
可视数据传输模块53,用于将所述可视数据传输至显示单元。
在实际应用中,图4所示的本发明实施例中所述装置还可以包括:语音识别单元和判断单元,其中,
所述语音识别单元,用于接收语音指令,对语音指令进行识别,识别出所述语音指令所表示的人员的面部表情,;
所述判断单元,用于判断语音指令所表示的人员的面部表情与所述识别单元识别出的人员的面部表情是否一致,如果一致,则触发所述识别单元将人员的面部表情转换为可视数据;如果不一致,则触发采集单元继续采集人员的面部数据。
所述语音指令可以来自人员,即由人员完成输入。
在实际应用中,本发明实施例中展示人员状态的装置可以周期性执行,所述周期性执行的时间长度可由用户、如人员预先设置在所述装置中;
或者,设置接收按键指令后开始采集人员的面部数据,由人员手动控制所述装置的开始运行时间。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。
Claims (8)
1.一种展示人员状态的方法,其特征在于,所述方法包括:
追踪人员的五官位置,将所述五官位置与标准坐标进行比较;
确定所述五官位置落在标准坐标范围内,则采集人员的面部数据,所述人员面部数据包括人员面部五官位置坐标;
根据所述人员面部五官位置坐标,识别所述人员的面部表情;
将所述人员的面部表情转换为代表所述人员状态的可视数据;
显示所述可视数据在车身的多个位置,其中,各显示位置显示相同或不相同的可视数据;
其中,所述根据所述人员面部五官位置坐标,识别所述人员的面部表情,包括:
将所述五官位置坐标与表情模板五官位置坐标进行比较;
若确定所述五官位置坐标在所述表情模板五官位置坐标临界值内时,则判定所述人员出现表情模板中的对应面部表情。
2.根据权利要求1所述的展示人员状态的方法,其特征在于,所述显示所述可视数据包括:
根据按键操作将可视数据显示在对应于所述按键操作的显示位置。
3.根据权利要求1所述的展示人员状态的方法,其特征在于,所述将所述人员的面部表情转换为可视数据之前还包括:
对接收的语音指令进行识别,识别出所述语音指令所表示的人员的面部表情,判断所述语音指令所表示的人员的面部表情与识别出的人员的面部表情是否一致,如果一致,则将人员的面部表情转换为可视数据;如果不一致,则继续采集人员的面部数据。
4.根据权利要求1至3任一所述的展示人员状态的方法,其特征在于,所述采集人员的面部数据,为:
周期性采集人员的面部数据;或者,
收到启动指令后开始所述采集人员的面部数据。
5.一种展示人员状态的装置,其特征在于,所述装置包括:采集单元,识别单元,显示单元;其中,
所述采集单元,用于追踪人员的五官位置,将所述五官位置与标准坐标进行比较,确定所述五官位置落在标准坐标范围内,则采集人员的面部数据,所述人员面部数据包括人员面部五官位置坐标;
所述识别单元,用于根据所述人员面部五官位置坐标,识别人员的面部表情,并将所述人员的面部表情转换为代表所述人员状态的可视数据;
所述显示单元,用于显示所述可视数据在车身的多个位置,其中,各显示位置显示相同或不相同的可视数据;
其中,所述采集单元,具体用于将所述五官位置坐标与表情模板五官位置坐标进行比较;若确定所述五官位置坐标在所述表情模板五官位置坐标临界值内时,则判定所述人员出现表情模板中的对应面部表情。
6.根据权利要求5所述的展示人员状态的装置,其特征在于,所述识别单元包括:面部数据识别模块,面部数据转换输出模块,可视数据传输模块;其中,
面部数据识别模块,用于识别所述采集单元采集的人员面部数据,转换成人员的面部表情;
面部数据转换输出模块,用于将所述人员的面部表情转换成可视数据;
可视数据传输模块,用于将所述可视数据传输至显示单元。
7.根据权利要求5所述的展示人员状态的装置,其特征在于,所述装置还包括语音识别单元和判断单元,其中,
所述语音识别单元,用于接收语音指令,对语音指令进行识别,识别出所述语音指令所表示的人员的面部表情;
所述判断单元,用于判断语音指令所表示的人员的面部表情与所述识别单元识别出的人员的面部表情是否一致,如果一致,则触发所述识别单元将人员的面部表情转换为可视数据;如果不一致,则触发采集单元继续采集人员的面部数据。
8.根据权利要求5至7任一所述的展示人员状态的装置,其特征在于,所述显示单元还包括按键,用于根据按键操作将可视数据显示在对应于所述按键操作的显示位置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611092822.2A CN108133166B (zh) | 2016-11-30 | 2016-11-30 | 一种展示人员状态的方法及装置 |
PCT/CN2017/091319 WO2018099076A1 (zh) | 2016-11-30 | 2017-06-30 | 展示人员状态的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611092822.2A CN108133166B (zh) | 2016-11-30 | 2016-11-30 | 一种展示人员状态的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108133166A CN108133166A (zh) | 2018-06-08 |
CN108133166B true CN108133166B (zh) | 2023-03-14 |
Family
ID=62241207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611092822.2A Active CN108133166B (zh) | 2016-11-30 | 2016-11-30 | 一种展示人员状态的方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108133166B (zh) |
WO (1) | WO2018099076A1 (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101452582A (zh) * | 2008-12-18 | 2009-06-10 | 北京中星微电子有限公司 | 一种实现三维视频特效的方法和装置 |
CN102355527A (zh) * | 2011-07-22 | 2012-02-15 | 深圳市无线开锋科技有限公司 | 一种手机感应心情装置及方法 |
JP2015067254A (ja) * | 2013-10-01 | 2015-04-13 | パナソニックIpマネジメント株式会社 | 車載機器と、それを搭載した自動車 |
CN105354527A (zh) * | 2014-08-20 | 2016-02-24 | 南京普爱射线影像设备有限公司 | 一种消极表情识别鼓励系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100461204C (zh) * | 2007-01-19 | 2009-02-11 | 赵力 | 一种基于二维偏最小二乘法的面部表情识别方法 |
CN104104867B (zh) * | 2014-04-28 | 2017-12-29 | 三星电子(中国)研发中心 | 控制摄像装置进行拍摄的方法和装置 |
US9576175B2 (en) * | 2014-05-16 | 2017-02-21 | Verizon Patent And Licensing Inc. | Generating emoticons based on an image of a face |
CN105551499A (zh) * | 2015-12-14 | 2016-05-04 | 渤海大学 | 面向语音与面部表情信号的情感可视化方法 |
-
2016
- 2016-11-30 CN CN201611092822.2A patent/CN108133166B/zh active Active
-
2017
- 2017-06-30 WO PCT/CN2017/091319 patent/WO2018099076A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101452582A (zh) * | 2008-12-18 | 2009-06-10 | 北京中星微电子有限公司 | 一种实现三维视频特效的方法和装置 |
CN102355527A (zh) * | 2011-07-22 | 2012-02-15 | 深圳市无线开锋科技有限公司 | 一种手机感应心情装置及方法 |
JP2015067254A (ja) * | 2013-10-01 | 2015-04-13 | パナソニックIpマネジメント株式会社 | 車載機器と、それを搭載した自動車 |
CN105354527A (zh) * | 2014-08-20 | 2016-02-24 | 南京普爱射线影像设备有限公司 | 一种消极表情识别鼓励系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2018099076A1 (zh) | 2018-06-07 |
CN108133166A (zh) | 2018-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021159630A1 (zh) | 交通工具通勤控制方法及装置、电子设备、介质和车辆 | |
Li et al. | Modeling of driver behavior in real world scenarios using multiple noninvasive sensors | |
CN111274881A (zh) | 驾驶安全的监控方法、装置、计算机设备及存储介质 | |
US20160336009A1 (en) | In-vehicle control apparatus and in-vehicle control method | |
CN112124073B (zh) | 基于酒精检测的智能驾驶控制方法及装置 | |
EP3098692A1 (en) | Gesture device, operation method for same, and vehicle comprising same | |
JP2007249477A (ja) | 車載用情報伝達装置 | |
CN113362674A (zh) | 驾驶训练课程调整的方法、装置、电子设备以及存储介质 | |
CN112959945B (zh) | 车窗控制方法、装置、车辆及存储介质 | |
CN112037468A (zh) | 安全预警方法、装置及电子设备 | |
CN114014111B (zh) | 一种无接触式的智能电梯控制系统和方法 | |
CN104657054A (zh) | 一种基于点读机的学习方法及装置 | |
CN112861677A (zh) | 轨交驾驶员的动作检测方法及装置、设备、介质及工具 | |
CN115514954A (zh) | 一种电子后视镜及其延迟时间检测方法 | |
CN112215093A (zh) | 一种车辆驾驶能力水平的评价方法及装置 | |
CN108133166B (zh) | 一种展示人员状态的方法及装置 | |
CN109835280B (zh) | 一种通过语音识别显示车辆状态及驾驶行为的系统和车辆 | |
CN110705483B (zh) | 驾驶提醒方法、装置、终端及存储介质 | |
WO2023029407A1 (zh) | 用于车辆的向紧急呼叫中心发送信息的方法及装置 | |
CN112951216B (zh) | 一种车载语音处理方法及车载信息娱乐系统 | |
AU2021101436A4 (en) | Wearable sign language detection system | |
CN112735405A (zh) | 一种安全性高的基于动作行为的列车人机语音交互系统 | |
CN114023116A (zh) | 一种带有语音识别功能的教学设备 | |
CN113689719A (zh) | 车辆状态判定方法、装置、电子设备及存储介质 | |
CN112261586A (zh) | 一种利用车载机器人自动识别驾驶员限制其行使范围的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |