CN109976513B - 一种系统界面设计方法 - Google Patents

一种系统界面设计方法 Download PDF

Info

Publication number
CN109976513B
CN109976513B CN201910124428.XA CN201910124428A CN109976513B CN 109976513 B CN109976513 B CN 109976513B CN 201910124428 A CN201910124428 A CN 201910124428A CN 109976513 B CN109976513 B CN 109976513B
Authority
CN
China
Prior art keywords
user
emotion
emotional
program
authority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910124428.XA
Other languages
English (en)
Other versions
CN109976513A (zh
Inventor
方科峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910124428.XA priority Critical patent/CN109976513B/zh
Publication of CN109976513A publication Critical patent/CN109976513A/zh
Priority to PCT/CN2020/075638 priority patent/WO2020169011A1/zh
Application granted granted Critical
Publication of CN109976513B publication Critical patent/CN109976513B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,验证后予以应用权限:或为使用者操作系统验证进入权限;或为使用者任一程序控制权限;或为使用者一区间验证进入的权限,以及区间任一物品使用的权限;以及,为使用者一虚拟空间进入验证进入的权限,以及虚拟区间任一虚拟物品使用的权限;以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限;使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限。

Description

一种系统界面设计方法
技术领域
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及文学素养,音质特点,生成系统富有使用者特征的学习改进型的人机界面。
背景技术
肢体是脑行为意识的输出执行肌体组织,也是很重要的输入肌体组织,通过应激的条件反映于人的面部表情,相连或相干的肌肉反映,以及响应。从皮肤到肌肉每时每刻都会有神经向中枢神经传输信息。大脑对意识的改变完全通过控制对肢体的动作而进行。不同的动作感知自己对意识的改变。而肢体动作都是通过改变脑中的协调性(神经间的协调能力)和改变身体激素的平衡而影响情绪,意识等。人在特定的条件下,形成了个性特质。这是人作为个体的行为区分于群体的共性特点。受激的状态,人会做出潜意识下的故有行为保护,或者行为惯性。这种行为惯性可以在互动的人机界面中,使其成为个性的行为辅助工具,使其具有建议,记录,分析的大数据的人工智能处理分析能力。
在日本,有微型激光投射在表演者的面部,生成一段拟人的场景。此时的使用者的情绪可以富含于投射的次生场景中,成为此时情绪乃至此时心理活动的直观记录。
情绪感知表达思想、概念、态度、感情、幻想、象征甚至抽象形式。要注意眉、眼、鼻、耳的情绪反映或者情绪反激,从眉、眼、鼻、颞骨处,涵括皱眉肌、眉毛、眼睑和眼轮匝肌,鼻唇沟、嘴唇、口轮匝肌和鼻肌,与使用者面部表情、情绪、神态对应的感知。
人脸识别经历了三大阶段:
第一阶段(1950年-1980年),人脸识别被当作一个一般性的模式识别问题,主流技术基于人脸的几何结构特征。第二阶段(1990年),人脸识别迅速发展,出现了很多经典的方法,例如Eigen Face, Fisher Face和弹性图匹配,此时主流的技术路线为人脸表观建模。第三阶段(1990年末期到现在),人脸识别的研究不断深入,研究者开始关注面向真实条件的人脸识别问题。
主要包括以下四个方面的研究:1)提出不同的人脸空间模型,包括以线性判别分析为代表的线性建模方法,以Kernel方法为代表的非线性建模方法和基于3D信息的3D人脸识别方法。2)深入分析和研究影响人脸识别的因素,包括光照不变人脸识别、姿态不变人脸识别和表情不变人脸识别等。3)利用新的特征表示,包括局部描述子(Gabor Face, LBPFace等)和深度学习方法。4)利用新的数据源,例如基于视频的人脸识别和基于素描、近红外图像的人脸识别。
而现有技术,缺失基于使用者特有的情绪及动作肢体的微表情,以及心里潜意识的感知,以便用于人机系统的交互信息鉴别,以及第三方提供使用者情绪修正的现状情绪隐匿。
从使用者的社会人的一面与生活中的家人一面,实现情绪数据化的自我管理。从而构建使用者情绪应用定义,情绪修正,情绪干扰,情绪管理;以及涵括使用者授予第三方使用者相互间情绪应用定义,使用者针对第三方使用者情绪修正,使用者与于第三方使用者相互间情绪干扰,使用者与第三方使用者相互间情绪管理。使其成为人机系统的交互信息的启示,生成系统富有使用者特征的学习改进型的人机界面。
发明内容
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,验证后予以应用权限:或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或为使用者一区间验证进入的权限,涵括使用者在一区间任一物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间任一虚拟物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限;
使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限。
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,验证后予以使用者应用后,向第三方提供使用者情绪修正:语音速率快慢、语调高低,使用者情绪镜像的隐匿或修改,或者给予使用者预留的录制视频印像向第三方指定使用者传送相关的资讯,或使用者提示向第三方指定使用者模拟使用者定义的情绪特征的原始对比参照物:涉及任一使用者情绪表情关联的识别技术,以及通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限。
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,验证后予以应用权限:
所述的情绪表情关联的识别技术涵括语音识别系统,针对任一定义的语音或者诵读片段,语音速率快慢、语调高低,形成使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成,或涉及脑干反射、或生理节律涵括心率与音乐节奏的共鸣、或评价性条件反射、或情绪传染、或视觉想像、或情节记忆、或对音乐的期待、或噪声影响;
以及, 降低环境噪声、信道、说话人因素对特征造成的影响,统计声学模型,通过贝叶斯公式,建立使用者对应信息的授权,以及相对应的使用者,给予第三方使用者的技术授权;
或所述的情绪表情关联的识别技术涵括使用者定义的关联面部、手势、语音的情绪识别系统,通过情绪识别特征,进行情绪调整或者情绪管理: 个体和群体对自身情绪和他人情绪的认识,培养驾驭情绪的能力,并由此产生良好的管理效果;
以及针对任一眉、眼、鼻、耳的情绪反映或者情绪反激,从眉、眼、鼻、颞骨处,涵括皱眉肌、眉毛、眼睑和眼轮匝肌,鼻唇沟、嘴唇、口轮匝肌和鼻肌,与使用者面部表情、情绪、神态对应的感知的潜在动作或者预定义动作的关联,形成情绪行为特征码予以数据管理,通过使用者的情绪识别系统,获知使用者表达思想、概念、态度、感情、幻想、象征甚至抽象形式行为关联;
或所述的情绪表情关联的识别技术涵括使用者定义的关联的色彩感知系统,通过感知亮度,色彩对比的任一区间,捕捉使用者不同波长色彩的光信息作用于人的视觉器官,通过视觉神经传入大脑后,经过思维,与以往的记忆及经验产生联想,从而形成一系列的色彩心理反应,实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应的人机系统的交互信息控制授权,以及相对应的任一使用者,给予第三方使用者的技术授权。
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物:成为程序中使用者自己的情绪行为的替换,使其具有使用者的情绪,以及文学素养,音质特点,生成系统富有使用者特征的学习改进型的人机界面;
或为定制使用者与其使用定义系统界面,使其成为人机系统的交互信息的学习信息部分,或诵读片段,或事件提醒的行程管理。
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,与另一使用者虚拟数字形象,相互间形成程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或者一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,针对在现实空间任一指定的操作系统授权另一使用者虚拟数字形象验证进入权限;
以及或为使用者程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,针对在现实空间任一指定的物品授权任一其他使用者验证进入使用权限;
以及或为使用者程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密。
一种系统界面设计方法,其特征在于其系统界面给予多位使用者与其共有使用界面的定义,使其成为人机系统的交互信息的启示,源自多位使用者的情绪,以及多位使用者情绪表情关联的识别技术, 多位使用者通过先后次序的情绪行为或者情绪感知,多位使用者不一致的情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限;
验证后予以应用权限:
或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或为使用者一区间验证进入的权限,涵括使用者在一区间任一物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间任一虚拟物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限。
一种系统界面设计方法,其特征在于其系统界面给予使用者多个与其使用界面的定义,使其成为人机系统的交互信息的随机启示、或组合启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,验证后予以应用权限:
或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
使用者情绪表情关联的识别技术通过使用者多个的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,通过多个与其使用界面的定义选择其中至少一个系统界面给予使用者与其使用界面的定义, 予以人机系统的交互信息的应用权限验证;
或通过多个与其使用界面的定义选择先后次序的组合定义,予以人机系统的交互信息的应用权限验证。
一种系统界面设计方法,其特征在于,所述方法包括如下步骤:
S1.针对任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、或任一定义的语音或者诵读片段,或涵括使用者定义的关联的色彩感知系统,通过感知亮度,色彩对比的任一区间,捕捉使用者不同波长色彩的光信息作用于人的视觉器官,通过视觉神经传入大脑后,经过思维,与以往的记忆及经验产生联想,从而形成一系列的色彩心理反应,实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应,形成原始对比参照物数据特征;
S2.针对使用者任一眼角的扩展或者收缩,或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成使用者与其使用界面的定义,或为使用者操作系统情绪数据特征比对;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密的情绪数据特征比对;
S3.针对使用者原始对比参照物数据特征验证,通过予以授权进入使用权限,未通过则否决授权进入使用权限。
一种系统界面设计方法, 其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及文学素养,音质特点,所述方法:涵括使用者情绪应用定义,情绪修正,情绪干扰,情绪管理;
以及涵括使用者授予第三方使用者相互间情绪应用定义,使用者针对第三方使用者情绪修正,使用者与于第三方使用者相互间情绪干扰,使用者与第三方使用者相互间情绪管理。
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,依赖于:
取景摄像头对使用者情绪感知,以及对第三人使用者情绪感知,取景摄像头具有高速摄像慢速回放至<1%秒的高清画面识别应用功能;
或集输入信号进行放大、混合、分配、音质修饰和背景音效修饰,音频录音、音频编辑、内部效果处理、自动缩混功能的音频设备,音频设备信噪比、采样位数、采样频率、总谐波失真相应指数优选无损音频技术标准;
或涵括运用软、硬件结合的方法,以CIE色度空间为参考色彩空间,特征文件记录设备输入或输出的色彩特征,并利用应用软件及第三方色彩管理软件作为使用者的色彩控制工具;
或使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物衍生的数据特征;或选使用者生理检测系统,涵括一体温传感器、或一心率传感器,用于身体实时状态的健康数据值区间管理,以及,或人工定期输入体重、身高、步距信息,或选一体重感应器,身高、步距信息生存行进速度,行进距离分析的依据,体重作为使用者身体热量消耗分析的数值区间管理;
或使用者定义的关联面部、手势、语音的情绪识别技术支持的任一MCU微控制器单元, 或MPU微处理器单元,或DSP数字信号处理器,或DSC数字信号控制器芯片,或NPU神经网络处理器,或CPU中央处理器,或GPU图像处理器,或TPU张量处理器,或DPU深度学习处理器,或BPU大脑处理器。
附图说明
图1为是本发明实施例一种系统界面设计方法结构示意图;
图2为是本发明引用面部表情的情绪识别,Paul Ekman的“面部动作组织系统”(FACS)面部动作单元(Action Units),来自网络;
图3为是本发明实施例使用者与其使用界面的定义,形成情绪表情关联的识别技术验证第二界面;
图4为是本发明硬件支持需求结构图。
具体实施方式
已有的心理以及情绪研究,在人的面部表情关联的技术识别方面取得较大的认识。当一对比研究对象(以下简称使用者)愤怒,愤怒情绪的面部表情为嘴呈方形张开,双眉向中间皱紧,两眼难过;悲伤:眉毛中间部分被拉起,上眼脸微闭,眼睛周围肌肉紧缩(如果太出力会出现鱼尾纹),嘴角往下拉,有时候嘴角会像微笑一样往上拉,头部会往下低,就是所谓的垂头丧气;眉毛中间被往下压并出现皱纹(有时候不会出现皱纹),上眼脸睁大(所以看起来才叫怒视),下眼脸可能会紧绷,嘴唇变薄,嘴唇压紧,面色涨红,呼吸变快,下巴向前推,咬肌用力;痛苦(悲伤的另一种版本):眉毛中间往上拉,眉毛被压下鼻梁(类似愤怒),眼睛周围肌肉紧缩,眼睛可能会紧闭而出现眼角皱纹,嘴唇可能会紧闭,手可能会紧握拳头;害怕:眉毛往上拉而且眉毛之间会出现皱纹,上眼脸睁得很大(有时候不大),下眼脸被往上推(可能会遮住眼珠下方),嘴角被拉向耳朵,下巴两边肌肉被堆出; 惊讶:眉毛往上(可是没有集中在一起),上眼脸睁大,嘴唇张开,下巴打开;快乐:眼睛周围肌肉紧缩(发自内心的笑大多数都有这个运动),嘴角往上拉(嘴角没有紧绷),可能会露出牙齿(可能不会),嘴巴可能会张开;厌恶:眼睛中间(就是鼻梁上方)出现横线皱纹,可能会出现下眼脸往上堆的运动,有时候会出现在鼻翼旁边出现皱纹,鼻翼扩张,上唇被拉起;轻蔑:下眼袋凸起,单边鼻子旁边肌肉凸起并拉动上唇,嘴角单边拉起、嘴角单边收紧、嘴角单边拉向耳朵;继而头部运作有抬头:自信,骄傲,思考;歪头:好奇,挑逗;低头:难过,垂头尚气,平静;以及身体语言有单边耸肩:不确定,有所隐藏,不满意的潜语;单边肩膀轻微抬起(比如一个人不喜欢的人在他的左边,他会轻轻抬起他的左肩):不喜欢;身体向前倾:感兴趣,要接近目标,胸有成竹;身体向后倾:不感兴趣,要离开目标,不喜欢这种情境或场面;身体弯曲:难过,失落,不自信; 身体挺直:自信,胸有成竹; 轻微把背对着人:要离开那个人,不喜欢那个人;
手:双手放松:自在,不受约束,没有任何正面或负面看法; 双手打开:心也打开了,接受对方,不觉得对方有敌意,像亲近对方;双手交叉:防御性手势,充满敌意,远离对象;双手握拳交叉:比单单交叉更具敌意,证明负面意见不改;双手放在头后面(弹弓式手势):自信,骄傲;双手叉腰:权威,恐吓,争斗;双手放在私处前:不自信,不安全感,礼貌,低声下气;掩饰性手部防御动作:双手在腰前捧着鲜花,咖啡,书包;手在腰前整理袖口;手在腰前弄手表;双手身后:手掌抓手掌潜意识自信,权威;手掌抓手腕:轻微紧张,轻微焦虑;手掌抓手臂:非常紧张,非常焦虑;双手脸部:(手触碰),单手支撑头部,无趣,无聊,没兴趣;手放在下巴:批判,批评,思考(如果加低头的话就比较可能是负面想法,抬头就相反);手放在嘴部:非礼勿说,隐藏,批判;手放在眼睛:非礼勿看,不赞同,隐藏;手放在耳朵:非礼勿听,不赞同,隐藏;手放在鼻子:隐藏,拥有情绪;摸颈子:累、紧张、焦虑、担忧、不安、无聊、颈子酸痛、尴尬、害羞;
脚:4字形交叉:放松,自在,防御;叠起来交叉:防御,自信,放松,自在;交叉时上面的脚指着的人:非常可能是他(或她)喜欢她(或他);双脚打开:恐吓,权威,占领地盘,放松,自在; 双脚摇摆:快乐脚,感觉到开心,自信;脚的方向:(不一定是)他想去的地方,他喜欢的人,他的目标; 背离地心引力的动作:背离地心引力的动作其实就是做出与地上相反方向的动作;眉毛抬起:轻微高兴,惊讶;嘴角拉起:高兴;肩膀抬起:轻微高兴,觉得轻松,自在,清爽;用脚根支撑身体并把脚尖抬高:高兴,开心,听到好消息,遇见喜欢的人;用脚尖支撑身体并把脚跟抬高:(一样)负担肢体语言;肩膀放下,头垂下,眼睛看下,手放下,驼背;总结:全身无力,表示无力感、失望、无奈、悲伤、觉得自己失败。
平静的面部表情是指人的面部肌肉是一种松弛的状态,分布平稳均匀,没有较大的变化,保持面部表情的时间是最长久的。
微笑是人表达快乐情绪的一个象征,但不是所有的微笑都是内心愉悦的表达。许多情况下人们受环境等其它因素的影响,也会出现假笑的情况。
真正的快乐的表情是嘴角上扬并且眼睛会变小,同时眼角上扬,这才是真笑的表情当人们遇到挫折无法实现,或者是内心的需求得不到满足等情况下就会出现愤怒的情绪。
愤怒的面部表情是眼睛瞪大,瞳孔变小,眉毛下压,鼻孔不自觉的张大,并且会带有呼吸变粗,手握拳头等动作。
悲伤的面部表情是面部的肌肉会整体向下垂,眉毛稍微紧皱并且向下压,眼睑处下垂。惊讶的面部表情,这是一种突发的状况,人们会瞬间整理思绪进行面对,因此表情会维持不到一秒钟。
惊讶的表情是眼睛睁大,瞳孔放大,上眼皮和眉毛都会向上扬,并且嘴巴张大。惊恐或者害怕的时候会出现恐惧的表情,是惊讶表情的一种延伸,因为惊恐会造成产生一些生理的变化,因此形成的面部表情肌肉会变得紧绷绷的,眉毛和眼皮也会上扬,瞳孔会先变大后慢慢变小,同时伴有双臂紧抱等保护自己的动作。
对其他人的举止行为不赞同时,就会出现蔑视的表情,是一种社会性较强的表情。通常会产生蔑视的心理状态,形成一些趾高气昂的外在行为。
蔑视表情最大的特点是一边嘴角上扬,眼睛微微缩小,瞳孔缩小。厌恶的面部表情会出现眉毛下压,眼睛微小,轻微的厌恶会出现嘴角稍稍张开,漏出一点牙齿,非常厌恶的情况下眼睛和嘴巴会出现紧闭的现象。
细微表情只会持续二十五分之一秒至五分之一秒。人为可以制造出1万种表情,其中约3000种有实际意义。核心表情不过几百种,而其他的都是这些核心表情的很微小的变化。细微表情透露隐藏在深处的情绪,娱乐、生气、轻蔑、满意、厌恶、尴尬、兴奋、害怕、内疚、成功的骄傲、放松、沮丧(伤心)、满足、敏感、愉快、害羞。
假笑人们主要运用的面部肌肉是面颊,所以假笑的人只有面颊会收紧,但是如果是自然的真诚的笑,面部肌肉不仅仅是面颊部分会收紧,上眼睑的轮匝肌也会绷紧,眼部周围的肌肉也会绷紧。当然假装也可以做到让这些肌肉紧张,但是可以马上放松,但如果你是内心情绪的真实表达,笑过以后这些肌肉就不容易放松下来。上述的行为特征,均对应相关的情绪,可进而定义为使用者的情绪感知要素。
因此,情绪感知能够表达思想、概念、态度、感情、幻想、象征甚至抽象形式。要注意眉、眼、鼻、耳的情绪反映或者情绪反激,从眉、眼、鼻、颞骨处,涵括皱眉肌、眉毛、眼睑和眼轮匝肌,鼻唇沟、嘴唇、口轮匝肌和鼻肌,与使用者面部表情、情绪、神态对应的感知关联以及识别定义,以及将这种识别定义构建系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息验证技术手段。情绪表达=7%语言+38%声音+55%微表情。
参见图1,图2,一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义101,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术201,验证后予以应用权限:
或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或为使用者一区间验证进入的权限,涵括使用者在一区间任一物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间任一虚拟物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限;
使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限。
AR增强现实技术(Augmented Reality,简称 AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。
VR虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真使用户沉浸到该环境中。
MR混合现实,制造的虚拟景象可以进入现实的生活同时能够认识你,比如通过我们的设备,你在眼睛当中看到一个景象可以测量出现实生活中物体的尺度和方位,其最大的特点在于虚拟世界和现实世界可以互动。
示例一:使用者任一的面部、手势、语音的原始对比参照物,源自使用者自我设定的表情和心理潜意识的行为,与个性习惯培养的情感感知,针对感受的语言,产生情感时所处的情境,先前产生这些感受时留下的记忆以及其他许多因素。决定了情感,不只是一种感觉,一种表情。而情绪行为是系列行为特征的叠加,或者系列行为特征的组合。
而现实中,任一眼角的扩展或者收缩,或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,是存在人为自我的行为控制与肯定。情绪,是对一系列主观认知经验的通称,是多种感觉、思想和行为综合产生的心理和生理状态。
比如眼球转动的方向,以及转动的次数;以及左右眼球转动的差异或者先后协调性;夸张的眼角的扩展或者收缩产生的面部表情;嘴唇开合或者紧闭,以及舌与嘴唇相互位置的有意识的展现;均可以带来面部肌肉的放松或者紧绷带来局部的人面部(涵括使用者,以及第三方使用者)局部特征的差异;任一手部及手指相互间的紧握或释放、或任一手指比划的动作同样形成生活中人行为(涵括使用者,以及第三方使用者)的精神面貌或者潜在心理激励,心理应激;任一定义的语音或者诵读片段,形成了有意义的源自使用者的情绪,以及文学素养,音质特点,生成系统富有使用者特征的学习改进型的人机界面。
进而在大数据,或者网络连接的数据中,因使用者的自我标记,或者大量使用者(涵括、第三方使用者)相互间的数据脱敏,形成真实的数字生活情绪片段的真实人物的情绪镜像;或者在数字镜面中成像的个体的一面。
这种印像,有如下词义:形体映在水或镜等中的影子。或者客观事物在人脑里留下的迹象。我个人将其认为情绪镜像的复制,或者管理,或者克隆。
或者,在单一的一种系统,作为人机系统的交互信息的启示,源自针对上述情绪行为的标记,以及在繁多的个性印像的比对确认中验证,以及使用者涵括第三方使用者的面部、手势、语音;针对局部特征,或者单一特征依次的数据列序,予以统计或者分类定义;
通过使用者的选项形成原始的对比参照物,这种原始的对比参照物进一步涵括任一眼角的扩展或者收缩,或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段的技术等同选择,或者基于上述认知的技术组合。
这种方式,可以将数据安全选择的权限提供给使用者。让数据存放于单一的一种系统内,而无需数据上网交换。或是系统内集成原始对比物数据特征的数据标记。
进而在使用中,验证使用者与其使用界面的定义关联的技术启示,即:眼球转动的方向,以及转动的次数;以及左右眼球转动的差异或者先后协调性;夸张的眼角的扩展或者收缩产生的面部表情;嘴唇开合或者紧闭,以及舌与嘴唇相互位置的有意识的展现;均可以带来面部肌肉的放松或者紧绷带来局部的人面部(涵括使用者,以及第三方使用者)局部特征的差异;任一手部及手指相互间的紧握或释放、或任一手指比划的动作同样形成生活中人行为(涵括使用者,以及第三方使用者)的精神面貌或者潜在心理激励,心理应激;任一定义的语音或者诵读片段,形成了有意义的源自使用者的情绪,以及文学素养,音质特点,生成系统富有使用者特征的验证进入权限,或者任一程序控制权限。
示例二:基于AR增强现实技术的一场景的应用技术。
门是进出一空间的物理的管理装置,通常来访时,需要使用者为第三方使用者开启(进入权限或许可进入)。
假定在一来访(第三方使用者)的进入的门前,使用者不在物理的门内。第三方使用者通过一种系统与门相互间的识别,识别技术涵括NFC、蓝牙、红外、RFID、闪联任一的技术手段,与门形成数据的识读并连接。
一来访(第三方使用者)通过一种系统的取景摄像头,将物理的门的一局部作为技术背景,叠加一来访(第三方使用者)对比参照物;比如定义的任一时段使用者定义的关联面部、手势、语音的情绪,可通过任一软件类似QQ、微信、支付宝基于好友目录的链接方式推送给使用者;
或者基于通讯录的联系人方式,通过短信的链接方式推送给使用者;
使用者通过预授权、或者查阅后授权的方式,予以一来访(第三方使用者)进入门内。
所述的链接方式涵括一时间信息、一来访(第三方使用者)的情绪认知、以及来访者的物理门的LBS可选信息;
或进而包含:来访者的物理门的传感器,涵括一摄像头,或一NFC、蓝牙、红外、RFID、闪联芯片,将任一时段使用者定义的关联面部、手势、语音的情绪,传送给一来访(第三方使用者)的一种系统,通过一来访(第三方使用者)模仿任一时段使用者定义的关联面部、手势、语音的情绪,或者相反的任一时段使用者定义的关联面部、手势、语音的情绪,许可进入门内。
比如使用者定义的眨眼,如果一来访(第三方使用者)需要作出相反的任一时段使用者定义的关联面部、手势、语音的情绪,为闭住眼睛。
又比如使用者定义的张嘴,如果一来访(第三方使用者)需要作出相反的任一时段使用者定义的关联面部、手势、语音的情绪,为闭住嘴唇。
同样的原理或者相似的授权管理,可进一步在门内的任一NFC、蓝牙、红外、RFID、闪联芯片相连的物品中,集中授权管理。
NFC为点对点数据交换,符合标准编列有ISO/IEC 18092(NFCIP-1)、ECMA-340、ECMA-352、ECMA-356、ECMA-362、ISO/IEC 21481(NFCIP-2);以及后续技术标准应用。
涵括近场通信设备的调制方案、编码、传输速度与RF接口的帧格式,以及主动与被动近场通信模式初始化过程中数据冲突控制所需的初始化方案和条件,此外还定义了传输协议,包括协议启动和数据交换方法。在被动模式下,启动近场通信的设备,也称为发起设备(主设备),在整个通信过程中提供射频场(RF-field)。它可以选择106 kbps、212 kbps或424 kbps其中一种传输速度,将数据发送到另一台设备。另一台设备称为目标设备(从设备),不必产生射频场,而使用负载调制(load modulation)技术,以相同的速度将数据传回发起设备。而在主动模式下,发起设备和目标设备都要产生自己的射频场,以进行通信。
蓝牙支持设备短距离通信(一般10m内)的无线电技术。采用分散式网络结构以及快跳频和短包技术,支持点对点及点对多点通信,工作频段2.4GHz ISM(即工业、科学、医学)。其数据速率为1Mbps。采用时分双工传输方案实现全双工传输。
蓝牙协议体系中的协议按SIG的关注程度分为四层:
1.核心协议:BaseBand、LMP、L2CAP、SDP;
2.电缆替代协议:RFCOMM;
3.电话传送控制协议:TCS-Binary、AT命令集;
4.选用协议:PPP、UDP/TCP/IP、OBEX、WAP、vCard、vCal、IrMC、WAE。
除上述协议层外,规范还定义了主机控制器接口(HCI),它为基带控制器、连接管理器、硬件状态和控制寄存器提供命令接口。HCI位于L2CAP的下层,或L2CAP上层。
蓝牙协议栈允许采用多种方法,包括 RFCOMM 和 Object Exchange (OBEX ), 在设备之间发送和接收文件。如果想发送和接收流数据(而且想采用传统的串口应用程序,并给它加上蓝牙支持),那么 RFCOMM 更好。反过来,如果想发送对象数据以及关于负载的上下文和元数据,则 OBEX 最好。BluetoothProfile是蓝牙设备间数据通信的无线接口规范。现行蓝牙最新技术为4.1技术标准,本文所指蓝牙技术标准涵括后续技术标准演进应用。
红外通信协议是一种基于红外线的传输技术。作为无线局域网的传输方式,红外线方式的最大优点是不受无线电干扰。
IRDA标准包括三个基本的规范和协议:
物理层规范(PhysicalLayerLinkSpecification)、链接建立协议(LinkAccessProtocol:IrLAP)和链接管理协议(LinkManagementProtocol:IrLMP)。
物理层规范制定了红外通信硬件设计上的目标和要求,IrLAP和IrLMP为两个软件层,负责对链接进行设置、管理和维护。在IrLAP和IrLMP基础上,针对一些特定的红外通信应用领域,IRDA还陆续发布了一些更高级别的红外协议,如TinyTP、IrOBEX、IrCOMM、IrLAN、IrTran-P和IrBus。
红外通信是利用950nm近红外波段的红外线作为传递信息的媒体,即通信信道。发送端采用脉时调制(PPM)方式,将二进制数字信号调制成某一频率的脉冲序列,并驱动红外发射管以光脉冲的形式发送出去;接收端将接收到的光脉转换成电信号,再经过放大、滤波等处理后送给解调电路进行解调,还原为二进制数字信号后输出。
IrDA数据通信按发送速率分为三大类:SIR、MIR和FIR。串行红外(SIR)的速率覆盖了RS-232端口通常支持的速率(9600b/s~115.2kb/s)。MIR可支持0.576Mb/s和1.152Mb/s的速率;高速红外(FIR)通常用于4Mb/s的速率,有时也可用于高于S1R的所有速率。IrDA提出了对工作距离、工作角度(视角)、光功率、数据速率不同品牌设备互联时抗干扰能力的建议。当前红外通讯距离最长为3米,接收角度为30度。2016年IrDA将推出16Mbps的超高速红外(VFIR)标准。IrDA红外通信的作用距离也将从1米扩展到几十米。RFID涵括EPC/EPC.GEN2欧洲标准,对应通用频率860-960MHZ;UID日本标准,对应通用频率13.56MHZ/2.4GHZ。
无线射频识别技术(Radio Frequency IdenTIficaTIon,RFID)利用射频信号和空间耦合(电感或电磁耦合)传输特性实现对被识别物体的自动识别。
EPC Global“物联网”体系架构由EPC编码、EPC标签及读写器、EPC中间件、ONS服务器和EPCIS服务器等部分构成。EPC赋予物品惟一的电子编码,其位长通常为64位或96位,也可扩展为256位。对不同的应用规定有不同的编码格式,主要存放企业代码、商品代码和序列号等。最新的GEN2标准的EPC编码可兼容多种编码。 EPC中间件对读取到的EPC编码进行过滤和容错等处理后,输入到企业的业务系统中。它通过定义与读写器的通用接口(API)实现与不同制造商的读写器兼容。ONS服务器根据EPC编码及用户需求进行解析,以确定与EPC编码相关的信息存放在哪个EPCIS服务器上。 EPCIS服务器存储并提供与EPC相关的各种信息。这些信息通常以PML的格式存储,也可以存放于关系数据库中。uCode采用128位记录信息,可以以128位为单元进一步扩展至256、384或512位。uCode能包容现有编码体系的元编码设计,可以兼容多种编码,包括JAN、UPC、ISBN、IPv6地址,甚至电话号码。uCode解析服务器确定与uCode相关的信息存放在哪个信息系统服务器上。uCode解析服务器的通信协议为uCodeRP和eTP,其中eTP是基于eTron(PKI)的密码认证通信协议。 泛在通信器主要由IC标签、标签读写器和无线广域通信设备等部分构成,用来把读到的uCode送至uCode解析服务器,并从信息系统服务器获得有关信息。
我国采用强制性国家标准 GB 18937《全国产品与服务统一标识代码编制规则》规定了全国产品与服务统一代码(NPC)的适用范围、代码结构及其表现形式,全国产品与服务统一代码按照全数字、最长不超过十四位、便于维护机构维护和管理的原则设计,由十三位数字本体代码和一位数字校验码组成,其中本体代码采用序列顺序码或顺序码。
RFID的无线接口标准中最受注目的是ISO/IEC 18000系列协议,涵盖了从125KHz到2.45GHz的通信频率。无线传感器网络是另一种RFID技术的扩展。传感器网络技术的对象模型和数字接口已经形成产业联盟标准IEEE 1451。该标准正进一步扩展,提供基于射频的无线传感器网络,相关标准草案1451.5正在草议中。有关建议将会对现有的ISO/IEC 18000系列RFID标准,以及ISO/IEC 15961、ISO/IEC 15862读写器数据编码内容和接口协议进行扩展。我国正在制定的RFID领域技术标准是采用了ISO/IEC 15693系列标准,该系列标准与ISO/IEC 18000-3相对应,均在13.56MHz的频率下工作。
RFID涵括ISO/IEC 18000-1 信息技术,ISO/IEC 18000-2 信息技术,ISO/IEC18000-3信息技术,ISO/IEC 18000-4信息技术,ISO/IEC 18000-6信息技术,ISO/IEC18000-7技术应用或后续技术演进。
RFID数据协议的应用接口基于ASN.1,它提供一套独立于应用程序、操作系统和编程语言,也独立于标签读写器与标签驱动之间的命令结构。以及ISO/IEC 15961规定 读写器与应用程序之间的接口;ISO/IEC 15962规定 数据的编码、压缩、逻辑内存映射格式;ISO/IEC 24753扩展 ISO/IEC 15962数据处理能力;ISO/IEC 15963规定 电子标签唯一标识的编码标准,该标准兼容ISO/IEC 7816-6、ISO/TS 14816、EAN.UCC标准编码体系、INCITS256再加上保留对未来扩展。以及ISO/IEC 24730-1 应用编程接口API,它规范 RTLS服务功能再加上访问方法,目的是应用程序可以方便地访问RTLS系统,它独立于RTLS的低层空中接口协议。ISO/IEC 24730-2 适用于2450MHz的RTLS空中接口协议。ISO/IEC 24730-3适用于433MH的RTLS空中接口协议。
闪联是信息设备资源共享协同服务(Intelligent Grouping and ResourceSharing,IGRS)的简称,支持各种3C(computer, consumer electronics & communicationdevices)设备智能互联、资源共享和协同服务。
除上述技术外,还不限于:
Miracast是Wi-Fi Alliance于2012年9月19日宣布Wi-Fi CERTIFIED Miracast™认证项目。
Miracast设备提供简化发现和设置,用户可以迅速在设备间传输视频。
苹果(Apple)的AirPlay Mirroring, airPlay是苹果公司的在iOS4.2及OS XMountain Lion中加入的一种播放技术,可以将iPhone、iPod touch、iPad及Mac(需要OS XMountain Lion)上的视频镜像传送到支持Airplay的设备(如:音箱、Apple TV)中播放。
英特尔(Intel)的WiDi(Intel WirelessDisplay)全称为无线高清技术,它是通过WiFi信号来实现电脑和显示设备的无线连接。
WiGig联盟的WiGig(WirelessGigabit,无线千兆比特)是一种短距离无线技术。
晶像(Silicon Image) UltraGig(Wireless HD)基于芯片封装内集成60 GHz射频收发器、基带处理器、嵌入式天线阵列。超低功耗的发送器可实现便携设备和大型显示器间稳定可靠的高清视频无线互连,无需线缆仍可提供使用线缆传输的视频质量。分辨率高达1080p的多种VESA和CEA视频。
WHDI联盟的无线数字家庭接口(WHDI),由以色列芯片商AMIMON公司根据WHDI协会公布的WHDI 1.0/2.0标准所开发而成,使用5GHz自由频段中的40MHz频段,可支持高频宽数位内容保护(HDCP)2.0标准,可提供优质的安全性及数位,并与HDMI完全相兼容。不同于60GHz的WirelessHD技术仅能在10米距离内传输(须透过波束成形(Beamforming)技术),WHDI传输距离可超过30米,并可穿透障碍物及墙壁,且延迟时间少于1毫秒,因而可实现跨房间的无压缩1080P高清画质无线影音串流应用。
汽车联机联盟(Car Connectivity Consortium)的MirrorLink,指由一些国际性知名手机厂商和汽车制造商联合发起建立的一种“车联网”标准,旨在规范智能手机和车载系统的有效连接。包括以虚拟网络运算(VNC™)进行画面显示与用户指令输入、透过通用随插即用(Universal Plug and Play,UPnP™)找寻对应的设备与完成正确的设定配置、运用蓝牙(Bluetooth™)和实时传输协议(Real-Time Protocol,RTP)执行音讯串流等,MirrorLink™也能支持目前在车内经常使用的规格包括蓝牙HFP与A2DP协议等技术。
DLNA的全称是DIGITAL LIVING NETWORK ALLIANCE(数字生活网络联盟),从下到上依次为:网络互连, 网络协议,媒体传输,设备的发现控制和管理,媒体格式。
WiPlug是WiPlug Inc.开发的无线传屏设备,是多屏互动领域内一款优秀的产品。
以及4G,5G无线蜂窝通讯技术及后续技术演进支持,基于M2M技术,电力载波PLC技术,LIFI可见光(又名VLC)的实际可选择技术应用支持,以及替换应用。
示例三:基于VR增强现实技术的一场景的应用技术。这种应用技术可支持密码隐匿以及传送、游戏、教学等不同的技术领域。
给予解密时限的数据隐匿,利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真使用户沉浸到该环境中。
一种系统涵括智能眼镜的投射成像投射于光学反射投影原理(HUD)的反射屏上,通过叠加凸透镜折射与取景摄像头捕捉到使用者的情绪特征,将上述其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密的应用许可。投射成像为程序附加解密时限的数据隐匿区;通过使用者的情绪特征验证,开启数据的后续应用,或给予时限的冻结。
参见图3,所述的投射成像为数字的镜像,具有不同角度:俯视、仰视、侧部及其局部,拟人可视的动态多维形象,叠合显示使用者的现实情绪以及使用者与其使用界面的定义关联的技术启示,即:眼球转动的方向,以及转动的次数;以及左右眼球转动的差异或者先后协调性;夸张的眼角的扩展或者收缩产生的面部表情;嘴唇开合或者紧闭,以及舌与嘴唇相互位置的有意识的展现;均可以带来面部肌肉的放松或者紧绷带来局部的人面部(涵括使用者,以及第三方使用者)局部特征的差异;任一手部及手指相互间的紧握或释放、或任一手指比划的动作同样形成生活中人行为(涵括使用者,以及第三方使用者)的精神面貌或者潜在心理激励,心理应激;任一定义的语音或者诵读片段,形成了有意义的源自使用者的情绪行为,产生代入感的个体认知。通过使用者在虚拟空间的信息隐匿,或者解密时限的数据隐匿,形成数据的单一点对点的传送,或者指定显示的可信数据源,源自使用者与第三方使用者相互间的情绪行为定义,以及使用者的情绪特征验证,形成验证进入权限鉴别。这种定义的语音,或是有停顿间隙、语调轻缓变动的情绪调整,或者隐匿,如性格刚烈使用人将其激昂快速语言表达风格替换为低缓轻柔的语言风格。另一角度,使用者针对第三方使用者的语言特点,进行模拟,如同歌曲卡拉OK。图3将第一界面给予使用者涵括多个与其使用界面的定义101,通过使用者或第三方使用者识别验证,如取景摄像头1,音频设备2、色彩控制工具3,选用生理检测系统4,基于处理器5实现第二界面使用者情绪表情关联的识别技术201。
前者可用于教学,后者可用于密码隐匿以及传送。
随以技术的相互融合, 一种系统涵括智能手表,手机,移动通讯终端产品。
为区分硬件支持的差异,在以下的示例,针对VR技术应用进一步针对性的技术讲解。
示例四:在VR游戏或者体验中,通常是体感技术沉浸式的拟物,或者操控物体,或者代入感的体验。而现有的面部识别技术只是静态的针对使用者的轮廓、五官的细节比对,其识别技术与情绪动作或者情绪行为的相对差异性,个体心理或者生活习惯上的不一,以及熟知人士之间的习惯细节的自我认知和他知的辨别度。而这种不一的自我认知,恰恰具有区别、或者自我行为的保护性的识别,即心理间隔或习惯围栏。
在一VR程序中,给予路径的方位角的隐匿,与现实路径方位角一致的对应数据。涉及虚拟路径方位角以及定位点,或者集散点。
通常理由GPS或者北斗辅助识别,在没有参照物的情况下,例如沙漠的迷途中。通过使用者的情绪,以及使用者情绪表情关联的识别技术,验证后予以应用权限:使其成为人机系统的交互信息的启示,或为每一虚拟路径方位角,给予使用者与其使用界面的定义的单一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限。
这种隐匿的虚拟路径方位角以及定位点,或者集散点。在查询使用者的体温和心率,以及相互身体特征:身高,步距,步频等真实数据后,通过使用者定义的任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限。
通过类似程序的应用许可,使用者与第三方使用者,建立与现实路径方位角一致的对应数据。虚拟路径中使用者真实的步频、步距、行走时间、以及使用者的体温和心率,通过每一转弯路径的方位角以及定位点,或者集散点,通过使用者定义的关联面部、手势、语音的情绪识别,标记转弯路径的方位角,如30度转向,或定位点,或者集散点,形成使用者个性的行为特征情绪标记。第三方使用者理解使用者个性的行为特征情绪标记,并解析每一转弯路径的方位角以及定位点,或者集散点,形成与现实路径方位角一致的对应数据。
示例五:MR混合现实,应用于生产中的数据管理。制造的虚拟景象通过我们的设备,你在眼睛当中看到一个景象可以测量出现实生活中物体的尺度和方位,其最大的特点在于虚拟世界和现实世界可以互动。
基于教学中数据加密、解密: 耶鲁大学的Michael Kraus展示了视觉线索,比如面部表情、姿势和手势,分散了我们的注意力,实际上降低了我们正确解读他人真实情感的能力。
而在MR混合现实设备的支持下,视觉线索成为教学中使用者的情绪行为或者情绪感知中的辅助教学。
在示例一中,针对使用者或者第三方使用者情绪感知有所介绍,在示例三中,揭示叠合使用者现实情绪以及使用者与其使用界面的定义关联的技术启示的技术可能。
为简便的阐述教学中的数据加密或者解密的意义,通常针对不同的使用者的理解能力,以及学习疲劳的心理状态,会出现针对书本的朗读断断续续,声音的不连贯以及音量的不适变化,以及注意力的分散;以及习题中的矛盾、迟疑的空窗时间,形成无效学习;或者不停歇的习题,出现身体的不适,或为过量的脑力损耗,均可通过MR教学数据的干预,实现以下有益的效果:
声音的不连贯以及音量的不适变化,以及注意力的分散,通过熟知的语音跟读、领读、提示的方式,让使用者领会用意的情况下,对MR教学数据衍生的熟知的语音,通过使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,终止MR教学数据的干预;
习题中的矛盾、迟疑的空窗时间,通过对使用者的眼球关注角度以及相应资料的问题查询,提示视频教学的启用。让使用者领会用意的情况下,对MR教学数据视频,予以使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,对教学中的数据加密,或者未予理解的问题予以解密,重复的提示,或者定向问题的重点归纳。
不停歇的习题,出现身体的不适,或为过量的脑力损耗,可在MR教学心理语言潜在的激励中,让使用者心情放松,习题阶段性的终止,MR教学心理语言可为低缓的音乐,或使用者定义的音乐。当使用者意识到积极效果后,予以使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,终止MR教学数据的干预。
示例六: 为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限。
在示例一中,针对使用者或者第三方使用者情绪感知有所介绍,示例二中,涉及第三方使用者获取授权进入门的技术;
在进入虚拟空间,通过任一对应虚拟物品在现实空间使用对应的真实物品的许可权限,以及通过设备的MAC地址、WIFI地址、蓝牙地址、NFC地址、基带芯片或射频芯片的地址、SIM卡的数据号码识别、或者基于手持设备摄像机镜头的图像数据,产生对应的真实物品参照物;
通过使用者与第三方使用者相互间予以使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,形成任一对应虚拟物品在现实空间使用对应的真实物品的许可权限口令,激活一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限。
一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品相应信息涵括:真实物品位置,使用时间期限,使用者定义的关联面部、手势、语音的情绪识别。
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术101,验证后予以使用者应用后,向第三方提供使用者情绪修正:语音速率快慢、语调高低,使用者情绪镜像的隐匿或修改,或者给予使用者预留的录制视频印像,向第三方指定使用者传送相关的资讯,或使用者提示向第三方指定使用者模拟使用者定义的情绪特征的原始对比参照物:涉及任一使用者情绪表情关联的识别技术201,以及通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限。
医学临床中,凡影响通过视听途径的基本言语交际过程的病态现象属言语障碍;而影响造句表意或理解他人言语含意等较高级过程的病态现象则为语言障碍。言语障碍可由视、听、发音、书写器官的器质性病变造成,也可以是发育性的言语障碍,如口吃和发不出某些辅音等等。语言障碍常见于发育期,如儿童学语迟缓。也见于某些精神障碍,如大脑受损造成失语症时语言和言语均有明显障碍。
情绪化,指一个人的心理状态,容易因为一些或大或小的因素发生情绪波动,喜怒哀乐经常会不经意间转换,前一秒可能还是高兴的,后一秒就可能闷闷不乐、焦躁不安。感情用事就是在感情强烈冲动的情况下,做出的缺乏理智的行动。有些感情用事虽然没有引起明显的恶果,但可能挫伤别人的情感,成为以后的隐患。情绪型的人举止受情绪左右,情绪不稳,易冲动,事后冷静下来也感到不值得,不应该,经常处于内心矛盾冲突的痛苦之中。
示例七:通过情绪干预,实现辅助使用者情绪修正。
在示例一中,针对使用者或者第三方使用者情绪感知有所介绍,示例三中,就叠加捕捉到使用者的情绪特征,将其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示。
继而,口吃和发不出某些辅音的发育性的言语障碍,通过捕捉使用者的语言形态及情绪行为或情绪感知,在语言方面出现提示干预、重复干预、心理应激鼓励等方法,实现使用者心理与社会认知的合一,从而在心理障碍的克服,以及语言习惯的多角度,建立使用者的语言习惯和语言速率的流畅。
大脑受损造成失语症时语言和言语均有明显障碍,通过捕捉使用者的语言形态及情绪行为或情绪感知,通过预置的熟知人的语言,通过降低语速,提高音量,逐步到正常的语速、音量的辅助沟通,形成使用者的语言感知,以及思维的渐进修复,达到辅助使用者情绪修正效果。
在情绪波动,喜怒哀乐经常会不经意间转换的使用者行为感知方面,通过低沉的语言环境,缓慢的语速,将使用者的正常语言环境修正,使其认知不同的自己语言特点及可能的有益的应用效果,从而建立辅助使用者情绪修正效果。避免情绪化的语言特点,在语言的熟知和自我认知中纠改情绪化的语言。以及通过舒缓的音乐(涵括背景音乐),辅助的心理暗示,达到使用者的语境平和的目的。
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义101,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术201,验证后予以应用权限:
所述的情绪表情关联的识别技术涵括语音识别系统,针对任一定义的语音或者诵读片段,语音速率快慢、语音的频率高低,形成使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成,或涉及脑干反射、或生理节律涵括心率与音乐节奏的共鸣、或评价性条件反射、或情绪传染、或视觉想像、或情节记忆、或对音乐的期待、或噪声影响;
以及, 降低环境噪声、信道、说话人等因素对特征造成的影响,统计声学模型, 通过贝叶斯公式W = argmaxP(O | W)P(W),建立使用者对应信息的授权,以及相对应的任一使用者,给予第三方使用者的技术授权;
或所述的情绪表情关联的识别技术涵括使用者定义的关联面部、手势、语音的情绪识别系统,通过情绪识别特征,进行情绪调整或者情绪管理: 个体和群体对自身情绪和他人情绪的认识,培养驾驭情绪的能力,并由此产生良好的管理效果;
以及针对任一眉、眼、鼻、耳的情绪反映或者情绪反激,从眉、眼、鼻、颞骨处,涵括皱眉肌、眉毛、眼睑和眼轮匝肌,鼻唇沟、嘴唇、口轮匝肌和鼻肌,与使用者面部表情、情绪、神态对应的感知的潜在动作或者预定义动作的关联,形成情绪行为特征码予以数据管理,通过使用者的情绪识别系统,获知使用者表达思想、概念、态度、感情、幻想、象征甚至抽象形式行为关联;
或所述的情绪表情关联的识别技术涵括使用者定义的关联的色彩感知系统,通过感知亮度,色彩对比的任一区间,捕捉使用者不同波长色彩的光信息作用于人的视觉器官,通过视觉神经传入大脑后,经过思维,与以往的记忆及经验产生联想,从而形成一系列的色彩心理反应,实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应的人机系统的交互信息控制授权,以及相对应的任一使用者,给予第三方使用者的技术授权。
引用http://www.sohu.com/a/226389805_100103604; 《更好的识别声音情绪可以改善人际关系》一文。
语言表达是很重要的,但心理学家Paul Ekman已经表明,我们并不是能意识到我们在说话中传达的情感。范德比尔特大学的joanne Bachorowski和卫斯里大学的Lolli也发现,我们经常在判断他人的真实情感时犯错误。说话的情感内容是,说话者并不总是会把情感注入他们所说的话中,来表达他们的情感,但也会无意识地去影响你的情绪。当他第一次说:“我真的很喜欢和你在一起的时候”,他降低了声音的音调(频率),声音的音量(响度),同时他的声音变得更“沙哑”。人类学家和进化心理学家发现,人类的男性在想要未来的伴侣相信自己时,他们的声音会更低沉。斯特林大学的Juan Leongomez说,我们不自觉地相信,更大的声音与更大的身体一起,这反过来又具有更大的社会优势和生存价值。LiciaSbattella和意大利米兰理工大学的同事们发现,当人们感到恐惧时,他们的声音的噪音比(HNR)会减少,从而增加了其他类型的“噪音”。女性也会无意识地改变自己的声音,当她们想要表现得更“女性化”和对男性更具吸引力时,但女性会增加,而不是减少她们的说话。根据加州大学洛杉矶分校的格雷格布莱恩特的说法,女性的声音,例如,在排卵期时无意识地提高了音调。
情绪中的语言或语音涉及应力:强度和频率的增加关系。愤怒:增加强度和频率,频率变化,提高清晰度;恐惧:增加强度和频率增加,频率范围降低,提高清晰度;悲伤:强度、频率、频率变化和清晰度;快乐:增加强度和频率,频率变化,清晰度;厌倦:降低频率变化和清晰度;可以帮助理解他人情绪波动或者变化。
另一种方法可以提高你在说话中对情绪的认识:在倾听的时候闭上眼睛。
耶鲁大学的Michael Kraus展示了视觉线索,比如面部表情、姿势和手势,分散了我们的注意力,实际上降低了我们正确解读他人真实情感的能力。
响度由声源振动的振幅决定,音调由声源振动的频率决定,音色不同,声波的波形不同。音色的影响因素是由发声体的材料和结构所决定,其中声音的音调与发声体振动的频率 有关,声音的响度与发声体的振幅有关,还跟距离发声体的远近有关;用一木头锤子轻轻的敲击鼓面和重敲鼓面,音调、响度中,发生变化的是响度,不发生变化的是音调。
示例八: 情绪表情关联的识别技术涵括语音识别系统,针对任一定义的语音或者诵读片段,语音速率快慢、语音的频率高低,形成使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成,或涉及脑干反射、或生理节律涵括心率与音乐节奏的共鸣、或评价性条件反射、或情绪传染、或视觉想像、或情节记忆、或对音乐的期待、或噪声影响;
降低环境噪声、信道、说话人等因素对特征造成的影响,统计声学模型, 通过贝叶斯公式W = argmaxP(O | W)P(W),建立使用者对应信息的授权。
在示例一中,针对使用者或者第三方使用者情绪感知有所介绍,示例七中,通过情绪干预,实现辅助使用者情绪修正。
统计语音识别的最基本问题是,给定输入信号或特征序列,符号集(词典),求解符号串使得:W = argmaxP(W | O);
通过贝叶斯公式,上式可以改写为:
由于对于确定的输入串O,P(O)是确定的,因此省略它并不会影响上式的最终结果,因此,一般来说语音识别所讨论的问题可以用下面的公式来表示,可以将它称为语音识别的基本公式。 W = argmaxP(O | W)P(W);
从这个角度来看,信号处理模块提供了对输入信号的预处理,也就是说,提供了从采集的语音信号(记为S)到 特征序列O的映射。而声学模型本身定义了一些更具推广性的声学建模单元,并且提供了在给定输入特征下,估计P(O | uk)的方法。
将声学模型建模单元串映射到符号集,就需要发音词典发挥作用。它实际上定义了映射的映射。为了表示方便,也可以定义一个由到U的全集的笛卡尔积,而发音词典则是这个笛卡尔积的一个子集。并且有:
最后,语言模型则提供了P(W)。这样,基本公式就可以更加具体的写成:
对于解码器来说,就是要在由ui以及时间标度t张成的搜索空间中,找到上式所指明的W。
或以MFCC特征为例,将特征提取出来之后进行模型训练。首先进行初始化的就是高斯模型的均值和方差。那这样在后续的模型训练的过程中,就使用的是模型的均值和方差。注意这里应该是单高斯模型,用单高斯模型对每一帧数据进行建模,每一帧或者是利用某个状态的观察变量来建立一个高斯。
另外要初始化的就是HMM的参数,一般情况下,使用3-5个状态 对应一个音素(除去起始和终止状态)。
单音素monophone 是上下文独立的(context-independent)。为了能够表示这种区别,因此提出了triphone的概念,triphone是根据左右音素来确定的,因此是上下文相关的(context-dependent)。
把首尾端的静音切除, 降低对后续步骤造成的干扰。这个静音切除的操作一般称为 VAD ,需要用到信号处理的一些技术。要对声音进行分析,需要对声音分帧,也就是把声音切开成一小段一小段, 每小段称为一帧。分帧操作一般不是简单的切开,而是使用移动窗函数来实现。
从而累积概率,由三部分构成,分别是:观察概率:每帧和每个状态对应的概率;转移概率:每个状态转移到自身或转移到下个状态的概率;语言概率:根据语言统计规律得到的概率。
而方言成分除了方音、方言词语、方言语法等,我们认为还包括人们在选择共同语成分时(尤其是共同语中有一组同义形式时)表现出的带有明显地方性的习惯和倾向等其他情况。这些共同语成分,多数是从方言中吸收的,仍然为方言区的人所“偏爱”。
以及口语的特点:适时、适度、适情、适意灵活自如地综合运用这些语言。使其参与要素即演讲者(形象、思维)—→内容(观点、选例)—→手段(语言、情感)—→听众(目的、结果),涵盖了演讲的全过程,即目的—→演化—→结局。
体现使用者的个人语言的风格。形成技术认知的差异性。
举例:语调是口语表达的重要手段,它能很好地辅助语言表情达意。同样一句话,由于语调轻重、高低长短、急缓等的不同变化,在不同的语境里,能表达出不同的思想感情。一般来讲,表达坚定、果敢、豪迈、愤怒的,语气急骤,声音较重;表达幸福、温暖、体贴、欣慰的,语气舒缓,声音较轻;表示优雅、庄重、满足,语调应遵从“前后尽弱中间强”。
通过使用者的音质分析,使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成,结合特殊的语境,能产生不同的效果,与使用者自有的语言风格有显见的技术差异:正如前文《更好的识别声音情绪可以改善人际关系》,揭示环境与使用者的语言风格的关联,以及技术针对性的差异修正。
比如地方方言的差异,在不同语境中,有不同的理解。需要针对性的解释。而本示例可进而在缓慢、平和的语境中,声音轻缓的表述,有助于其他地方方言环境的第三方使用者的关注,或者感知使用者的用心。
示例九:因环境的差别,针对自我情绪的自我管理。
人作为个体,有情绪化的一面。但作为社会人的要求,往往需要克制自我的情绪,于是,有了情绪的自我管理。
在示例一中,针对使用者或者第三方使用者情绪感知有所介绍,示例七中,通过情绪干预,实现辅助使用者情绪修正,在示例八中,针对环境与语调的风格差异有所解释。
这种环境,涉及使用者个体的身份,以及与第三方使用者应用环境。
商业谈判中涉及争吵,激烈的主观意见的表述。而从心理学的角度而言,积极的心态带来积极的情绪,促发积极的结果。需要在情绪感知中能觉察使用者的情绪应与语境行为呈现出一致性。当出现查询使用者的体温和心率真实数据剧烈后,启用情绪干预暗示,实现辅助使用者情绪修正。让情绪张力下降,内心自然恢复平静。因为人的痛苦并不是来源于情绪本身,而是来源于对情绪的抵触。
又如通常情况表达情绪大部分时候都是在发泄,所以伤己伤人,妨碍沟通。通常静默倒数8秒。可以舒缓现状的情绪恶化,利于调节情绪,对生活中矛盾和事件引起的反应能适可而止的排解,能以乐观的态度、幽默的情趣及时地缓解紧张的心理状态。
情绪管理是将这些感受、反应、评估和特定行为挖掘并驾驭的一种手段。情绪管理是指通过研究个体和群体对自身情绪和他人情绪的认识、协调、引导、互动和控制,充分挖掘和培植个体和群体的情绪智商、培养驾驭情绪的能力,从而确保个体和群体保持良好的情绪状态,并由此产生良好管理效果的一种管理手段。简单说,情绪管理是对个体和群体的情绪感知、控制、调节的过程。包括两个方面:正面情绪是指以开心、乐观、满足、热情等为特征的情绪;负面情绪是指以难过、委屈、伤心、害怕等为特征的情绪。
以及针对任一眉、眼、鼻、耳的情绪反映或者情绪反激,从眉、眼、鼻、颞骨处,涵括皱眉肌、眉毛、眼睑和眼轮匝肌,鼻唇沟、嘴唇、口轮匝肌和鼻肌,与使用者面部表情、情绪、神态对应的感知的潜在动作或者预定义动作的关联,形成情绪行为特征码予以数据管理,通过使用者的情绪识别系统,获知使用者表达思想、概念、态度、感情、幻想、象征甚至抽象形式行为关联。
示例十:情绪表情关联的识别技术涵括使用者定义的关联的色彩感知系统,通过感知亮度,色彩对比的任一区间,捕捉使用者不同波长色彩的光信息作用于人的视觉器官,通过视觉神经传入大脑后,经过思维,与以往的记忆及经验产生联想,从而形成一系列的色彩心理反应,实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应的人机系统的交互信息控制授权,以及相对应的任一使用者,给予第三方使用者的技术授权。
色彩的冷暖感觉,不仅表现在固定的色相上,而且在比较中还会显示其相对的倾向性。以及视错觉的一种现象,一般暖色、纯色、高明度色、强烈对比色、大面积色、集中色等有前进感觉,相反,冷色、浊色、低明度色、弱对比色、小面积色、分散色等有后退感觉。而使用者有着以下视觉认知:认知顺序依次是色彩→图像→图案→标志→文字。色彩与情绪对应关系如下:红色→热烈、冲动;橙色→富足、快乐、幸福;黄色→骄傲;绿色→平和;蓝色→冷漠、平静、理智、冷酷;紫色→虔诚、孤独、忧郁、消极;黑色和白色→恐怖、绝望、悲哀、崇高;灰色→冷静。色彩与性格对应关系如下:红色是外向型的性格,其特点是刚烈、热情、大方、健忘、善于交际、不拘小节;黄色是力量型的性格,其特点是习惯于领导别人,喜欢支配;蓝色是有条理的性格,其特点个性稳重,不轻易做出判断;绿色是适应型的性格,其特点是顺从、听话,愿意倾听别人的倾诉。
通过取景摄像头对面部表情情绪以及眼球的关注,以及实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应的人机系统的交互信息控制授权,以及相对应的任一使用者,给予第三方使用者的技术授权。或者相对应的任一使用者,给予相应程序人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,验证后予以应用权限:或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密。
例如,使用者定义一种以及多种颜色的图案,赋予其相对应的应用功能指令,所述的一种以及多种颜色,来自色系中的一数值,且色彩区间为使用者所感知并确认不易混淆,或为程序的局部功能,或为程序的任一控制权限。或一图案,使用者通过情绪定义的任一动作,或任一语音,有序标记不同颜色;或颜色按照颜色摆列次序无序的组合为图案标记一部分或全部。将有序标记不同颜色;或颜色按照颜色摆列次序无序的组合为图案标记一部分或全部,作为使用者定义的情绪表情关联的识别特征,验证后予以应用权限。
同时,使用者可向第三方授予相应的感知理解权限,以及相应定义的操作权限。
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义101,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术201,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物:成为程序中使用者自己的情绪行为的替换,使其具有使用者的情绪,以及文学素养,音质特点,生成系统富有使用者特征的学习改进型的人机界面;
或为定制使用者与其使用定义系统界面,使其成为人机系统的交互信息的学习信息部分,或诵读片段,或事件提醒的行程管理。
示例十一:通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物:成为程序中使用者自己的情绪行为的替换,使其具有使用者的情绪,以及文学素养,音质特点,生成系统富有使用者特征的学习改进型的人机界面。
在示例一中,针对使用者或者第三方使用者情绪感知有所介绍,示例七中,通过情绪干预,实现辅助使用者情绪修正,示例八中,通过使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成, 降低环境噪声、信道、说话人等因素对特征造成的影响; 示例九中,提示了使用者的情绪管理。
现有的程序如高德地图提供了诸多他人合成音的应用。但是基于人工合成的语音,缺失使用者自己的语言风格。
在游戏中,操作技巧的差异,会在潜意识中,激发使用者的语言暴徒的心理阴暗面。通过建立使用者的情绪行为特征,如:通过游戏角色的语言环境,通过使用者的自己语言音轨合成、音色合成、降低环境噪声、说话人等因素对使用者语言风格特征造成的影响;
会在熟悉的语境中,自我意识与情绪的自我感知,因为角色与使用者的性格契合,使在理性的约束中,情绪自我管理。
另一角度,从任一程序的使用界面,通过学习信息部分选择显示,或是一个章节,或是连续的段落在不同启用时间的显示,通过使用者的诵读片段,其行为的连续性,以及语言风格的差异化,可在自我情绪的认知中,标记自己的情绪行为特点,实现时间碎片化的学习管理;或者是事件提醒的行程管理。
这种任一程序的使用界面,通过学习信息部分选择显示,或是一个章节,或是连续的段落,或是唐诗宋词,或是名人名句,或是两个熟知人相互间的“蜜语”。这种诵读片段,因为情绪的风格特点,可在使用者自己的情绪标记中,应用与不同程序乃至操作系统的权限管理。
一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义101,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术201,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,与另一使用者虚拟数字形象,相互间形成程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或者一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,针对在现实空间任一指定的操作系统授权另一使用者虚拟数字形象验证进入权限;
以及或为使用者程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,针对在现实空间任一指定的物品授权任一其他使用者验证进入使用权限;
以及或为使用者程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密。
示例十二:游戏干预。
在示例一中,针对使用者或者第三方使用者情绪感知有所介绍,示例八中,通过使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成,降低环境噪声、信道、说话人等因素对特征造成的影响;示例十一中,提示了使用者自己的情绪标记中,应用与不同程序乃至操作系统的权限管理。
随着电子产品的应用,家庭教育中,孩子较早的习惯网上的信息共享乃至娱乐。因此出现了游戏沉迷。因此家长作为使用者,通过标记的情绪语言风格,提示:孩子,休息会,爸爸要看看你的作业了。
示例十三:数据管理。
在示例一中,针对使用者或者第三方使用者情绪感知有所介绍,示例八中,通过使用者语境与语调对使用者语言风格特征造成的影响; 示例十一:游戏中通过使用者情绪感知以及克隆,成为程序中使用者自己的情绪行为的替换。
在计算机的发展应用中,出现了用户权限,工作组,域等应用权限管理。但是在数据应用上,存在远程管理,以及防火墙等应用技术。
但是现有的密码学或者程序授权,较为复杂。
克隆使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,针对在现实空间任一指定的操作系统授权另一使用者虚拟数字形象验证进入权限;
通过使用者虚拟数字形象定义的诵读片段,因为情绪的风格特点,可在使用者自己的情绪标记中,应用与不同程序乃至操作系统的权限管理。
另一使用者虚拟数字形象通过涵括情绪的风格特点诵读片段模拟,获取应用与不同程序乃至操作系统的权限许可授权管理。
从另一角度,这种模拟涵括或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情模拟或者重复的学习。
示例十四:虚拟空间进行现实物品的使用权限交接。
在示例六中: 为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限。示例八中,通过使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成,降低环境噪声、信道、说话人等因素对特征造成的影响;示例十一中,提示了使用者自己的情绪标记中,应用与不同程序乃至操作系统的权限管理。
在现实空间任一指定的物品授权任一其他使用者验证进入使用权限;源自使用者自己的情绪标记,是一个章节,或是连续的段落在不同启用时间的显示,通过使用者的诵读片段,其行为的连续性,以及语言风格的差异化,可在自我情绪的认知中,标记自己的情绪行为特点。在现实空间任一指定的物品授权任一其他使用者验证进入使用权限前,任一其他使用者通过模拟“使用者自己的情绪标记,是一个章节,或是连续的段落在不同启用时间的显示,通过使用者的诵读片段”,通过进入使用权限许可;并使第三方使用者获知现实空间任一指定的物品相应位置,以及性能说明。
以及或为使用者程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密许可。
进而在语义关联的任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作,形成授权许可。
一种系统界面设计方法,其特征在于其系统界面给予多位使用者与其共有使用界面的定义101,使其成为人机系统的交互信息的启示,源自多位使用者的情绪,以及多位使用者情绪表情关联的识别技术201,多位使用者通过先后次序的情绪行为或者情绪感知,多位使用者不一致的情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限;
验证后予以应用权限:或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或为使用者一区间验证进入的权限,涵括使用者在一区间任一物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间任一虚拟物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限。
示例十五:情绪复合多位使用者的协同应用。
在示例三中,揭示叠合使用者现实情绪以及使用者与其使用界面的定义关联的技术启示的技术可能。在示例六中: 为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限。示例十四:虚拟空间进行现实物品的使用权限交接。
多人授信以及协同应用,在生活中有较多的应用场景。为结合虚拟空间、现实空间不一致的多位使用者的协同应用以及多人授信,以及现实空间不一致的多人授信以及协同应用。比如在医院中,病例管理与临床教学是属于不同部门管理。需要将实时手术,以及手术病例资料同步存储,远程医疗支援同步进行,涉及:实时手术录制中的技术讲解,点评分析。涉及医疗器材与技术支持。其中一使用者对医疗器材的使用,实时手术,或与另一现实空间不一致的使用者通过网络或者VR、AR、MR技术协助多人授信,实现电子病例的技术讲解,点评分析,注意事项的提示。
而手术中患者(需当事人的认可),以及手术中的使用者,在手术状态下的情绪,可以叠加于MR实时病例管理的数据中,生成可视的电子病例;临床教学的另一组使用者,则可将学习空间中任意方向、任意位置投射全息成像,通过实时渲染和空间定位,临床教学的另一组使用者拖动可视的电子病例的任一数据或者模拟相似的数据镜像,模拟手术,并同步就手术中的问题、操作,与手术中的使用者同步交流。这种定位方式能够实时检测跟踪用户的空间位置变化,并将全息影像的坐标与现实重叠,支持同步定位与映射,实现全息影像与现实世界之间的智能识别。形成一对一或一对多的实时数据生成,可视的电子病例或是手术后的教学镜像,进而针对每一临床教学的另一组使用者的情绪,手术动作感知,再次生成个性化病例,以便事后技术对比,分析,改正。
在另一例中,涉及山地越野接力。通常驾驶者操作车辆,副驾驶针对前行路况的地图或者实时数据更正操作方向,速度,制动,直行或转弯路段距离提示。相互使用者的情绪,可以叠加于AR、VR的数据镜像中,前者为实时驾驶;后者可为模拟驾驶,或者山地越野接力赛前训练,或者山地越野接力赛后技术分析。
当对于驾驶者的情绪感知,结合前行路况的地图或者实时数据更正操作方向,速度,制动,直行或转弯路段距离提示判断的准确度,动作的可控性,均有积极的应用效果;
在对于副驾驶的情绪感知,结合针对前行路况的地图或者实时数据更正操作方向,速度,制动,直行或转弯路段距离提示,语速、语调高低、以及语音的清晰度、准确性,均为山地越野接力赛的改进事项。并就相互使用者的相互情绪干扰,管理,可以予以事后的借鉴。
一种系统界面设计方法,其特征在于其系统界面给予使用者多个与其使用界面的定义101,使其成为人机系统的交互信息的随机启示、或组合启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术201,验证后予以应用权限:或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
使用者情绪表情关联的识别技术通过使用者多个的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,通过多个与其使用界面的定义选择其中至少一个系统界面给予使用者与其使用界面的定义, 予以人机系统的交互信息的应用权限验证;
或通过多个与其使用界面的定义选择先后次序的组合定义,予以人机系统的交互信息的应用权限验证。或基于多个与其使用界面的定义的局部选择, 合成新的系统界面给予使用者与其使用界面的定义,类似拼图的方式,成为一种系统界面设计方法中的多个使用者的组合因素,予以人机系统的交互信息的应用权限验证。
示例十六:多个与其使用界面的定义,涵括使用者或第三方使用者相互间的动态定义,如:第三方使用者指定的文本,通过使用者语音或者诵读片段;如第三方使用者定义的动作,生成使用者释读动作的成语,或者诗词,或者谜语解读;以及使用者涵括第三方使用者的特定任一行为关联的情绪特征。通过一种系统界面随机或者组合展示的方式,使用者涵括第三方使用者通过面部表情选择确认,或者否认;或者语音选择确认,或者否认;或者动作模拟,选择确认,或者否认。以及上述行为的情绪定义,针对多个与其使用界面的定义,予以排除或予以先后次序的排列。以获取人机系统的交互信息的应用权限验证。
一种系统界面设计方法, 其特征在于,所述方法包括如下步骤:
S1.针对任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、或任一定义的语音或者诵读片段,或涵括使用者定义的关联的色彩感知系统,通过感知亮度,色彩对比的任一区间,捕捉使用者不同波长色彩的光信息作用于人的视觉器官,通过视觉神经传入大脑后,经过思维,与以往的记忆及经验产生联想,从而形成一系列的色彩心理反应,实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应,形成原始对比参照物数据特征;
S2.针对使用者任一眼角的扩展或者收缩,或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成使用者与其使用界面的定义,或为使用者操作系统情绪数据特征比对;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密的情绪数据特征比对;
S3.针对使用者原始对比参照物数据特征验证,通过予以授权进入使用权限,未通过则否决授权进入使用权限。
参见图1,一种系统界面设计方法, 其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及文学素养,音质特点,所述方法:涵括使用者情绪应用定义,情绪修正,情绪干扰,情绪管理;
以及涵括使用者授予第三方使用者相互间情绪应用定义,使用者针对第三方使用者情绪修正,使用者与于第三方使用者相互间情绪干扰,使用者与第三方使用者相互间情绪管理。
参见图4,一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,依赖于:取景摄像头1对使用者情绪感知,以及对第三人使用者情绪感知,取景摄像头具有高速摄像慢速回放至<1%秒的高清画面识别应用功能;通过取景摄像头情绪行为的记录,生成GIF、MPEG、MPG、DAT、AVI、MOV、ASF、WMV、NAVI、3GP、REAL VIDEO、MKV、FLV、F4V、RMVB、WebM、HDDVD、BLU-RAY DISK、qsv格式视频数据,用于使用者情绪自我定义。
或集输入信号进行放大、混合、分配、音质修饰和背景音效修饰,音频录音、音频编辑、内部效果处理、自动缩混功能的音频设备2, 音频设备信噪比、采样位数、采样频率、总谐波失真相应指数优选无损音频技术标准;无损音频涵括APE格式、FLAC格式、WavPack格式、Windows Media AudoLossless格式。
或涵括运用软、硬件结合的方法,以CIE色度空间为参考色彩空间,特征文件记录设备输入或输出的色彩特征,并利用应用软件及第三方色彩管理软件作为使用者的色彩控制工具3;色彩管理,基本需要顺序经过三个步骤,这三个步骤称为“3C”,即“Calibration”(设备校正),“Characterisation”(设备特征化)及“Conversion”(转换色彩空间)。.ICC国际色彩联盟为了通过色彩特性文件进行色彩管理,以实现色彩传递的一致性,建立了一种跨计算机平台的设备颜色特性文件格式,并在此基础上构建了一种包括与设备无关的色彩空间PCS(Profile Connection Space),设备颜色特性文件的标准格式(ICC Profile)和色彩管理模块CMM( Color Management Modle)的系统级色彩管理框架,称为ICC标准格式,其目标是建立在一个可以以一种标准化的方式交流和处理图像的色彩管理模块,并允许色彩管理过程跨平台和操作系统进行。人眼对红、绿、蓝最为敏感,人的眼睛像一个三色接收器的体系,大多数的颜色可以通过红、绿、蓝三色按照不同的比例合成产生。同样,绝大多数单色光也可以分解成红、绿、蓝三种色光,这是色度学的最基本的原理,也称三原色原理。相加混色三基色所表示的颜色模式称为RGB模式,而用相减混色三基色原理所表示的颜色模式称为CMYK模式。
或使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物衍生的数据特征;
或选使用者生理检测系统4,涵括一体温传感器、或一心率传感器,用于身体实时状态的健康数据值区间管理,以及,或人工定期输入体重、身高、步距信息,或选一体重感应器,身高、步距信息生存行进速度,行进距离分析的依据,体重作为使用者身体热量消耗分析的数值区间管理;选择的传感器包括:压电传感器,或超声波式传感器,或磁致伸缩传感器,或离化传感器,或极化传感器,或热电传感器,或光电传感器,或磁电传感器,或光敏传感器;或压力敏和力敏传感器,或位置传感器,或液面传感器,或能耗传感器,或速度传感器,或热敏传感器,或加速度传感器,或射线辐射传感器,或振动传感器,或湿敏传感器,或磁敏传感器,或气敏传感器,或真空度传感器,或生物传感器。
或使用者定义的关联面部、手势、语音的情绪识别技术支持的任一MCU微控制器单元5, 或MPU微处理器单元5,或DSP数字信号处理器5,或DSC数字信号控制器芯片5,或NPU神经网络处理器5,或CPU中央处理器5,或GPU图像处理器5,或TPU张量处理器5,或DPU深度学习处理器5,或BPU大脑处理器5。MCU(micro controller unit)微控制器单元, MPU (microprocessor uint)微处理器单元,MCU集成了片上外围器件,而MPU不带外围器件(例如存储器阵列),是高度集成的通用结构的处理器,是去除了集成外设的MCU。DSP运算能力强,擅长很多的重复数据运算,而MCU则适合不同信息源的多种数据的处理诊断和运算,速度并不如DSP。MCU区别于DSP的最大特点在于它的通用性,反应在指令集和寻址模式中。DSP与MCU的结合是DSC,它终将取代这两种芯片。嵌入式神经网络处理器(NPU)采用“数据驱动并行计算”的架构,特别擅长处理视频、图像类的海量多媒体数据。CPU全称:Central ProcessingUnit,即中央处理器;GPU全称:Graphics Processing Unit,即图像处理器; TPU全称:Tensor Processing Unit,即张量处理器; DPU全称:Deep learning Processing Unit,即深度学习处理器; NPU全称:Neural network Processing Unit,即神经网络处理器; BPU全称:Brain Processing Unit,即大脑处理器。
鉴于AR、VR、MR涉及数据计算的量级需求,上述芯片主要作为数据计算,以及使用者定义的关联面部、手势、语音的情绪识别技术支持。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (38)

1.一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义(101),使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术(201),验证后予以应用权限:
或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或为使用者一区间验证进入的权限,涵括使用者在一区间任一物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间任一虚拟物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限;
使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限。
2.根据权利要求1所述的一种系统界面设计方法,其特征在于使用者与其使用界面的定义(101),有不同角度:俯视、仰视、侧部及其局部,拟人可视的动态多维形象,叠合显示使用者的现实情绪以及使用者与其使用界面的定义关联的技术启示,即:眼球转动的方向,以及转动的次数;以及左右眼球转动的差异或者先后协调性;夸张的眼角的扩展或者收缩产生的面部表情;嘴唇开合或者紧闭,以及舌与嘴唇相互位置的有意识的展现;带来面部肌肉的放松或者紧绷带来局部的人面部:涵括使用者,以及第三方使用者局部特征的差异;任一手部及手指相互间的紧握或释放、或任一手指比划的动作同样形成生活中人行为:涵括使用者,以及第三方使用者的精神面貌或者潜在心理激励,心理应激;任一定义的语音或者诵读片段,形成了有意义的源自使用者的情绪行为,产生代入感的个体认知;或定义的语音,或是有停顿间隙、语调轻缓变动的情绪调整,或者隐匿,性格刚烈使用人将其激昂快速语言表达风格替换为低缓轻柔的语言风格,使用者针对第三方使用者的语言特点,进行模拟。
3.根据权利要求1所述的一种系统界面设计方法,其特征在于基于AR增强现实技术的一场景的应用技术:
一来访,或称第三方使用者进入的门前,使用者不在物理的门内;
第三方使用者通过一种系统与门相互间的识别,识别技术涵括NFC、蓝牙、红外、RFID、闪联任一的技术手段,与门形成数据的识读并连接;
一来访,或称第三方使用者通过一种系统的取景摄像头,将物理的门的一局部作为技术背景,叠加一来访,或称第三方使用者对比参照物;通过定义的任一时段使用者定义的关联面部、手势、语音的情绪,通过任一软件类似QQ、微信、支付宝基于好友目录的链接方式推送给使用者;
或者基于通讯录的联系人方式,通过短信的链接方式推送给使用者;
使用者通过预授权、或者查阅后授权的方式,予以一来访,或称第三方使用者进入门内;
所述的链接方式涵括一时间信息、一来访,或称第三方使用者的情绪认知、以及来访者的物理门的LBS关联信息;
或进而包含:来访者的物理门的传感器,涵括一摄像头,或一NFC、蓝牙、红外、RFID、闪联芯片,将任一时段使用者定义的关联面部、手势、语音的情绪,传送给一来访,或称第三方使用者的一种系统,通过一来访,或称第三方使用者模仿任一时段使用者定义的关联面部、手势、语音的情绪,或者相反的任一时段使用者定义的关联面部、手势、语音的情绪,许可进入门内;
同样的原理或者相似的授权管理,进一步在门内的任一NFC、蓝牙、红外、RFID、闪联芯片相连的物品中,集中授权管理。
4.根据权利要求1所述的一种系统界面设计方法,其特征在于基于VR增强现实技术的一场景的应用技术:支持密码隐匿以及传送、游戏、教学不同的技术领域;
给予解密时限的数据隐匿,利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真使用户沉浸到该环境中;
一种系统涵括智能眼镜的投射成像投射于光学反射投影原理HUD的反射屏上,通过叠加凸透镜折射与取景摄像头捕捉到使用者的情绪特征,将上述其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密的应用许可:投射成像为程序附加解密时限的数据隐匿区;通过使用者的情绪特征验证,开启数据的后续应用,或给予时限的冻结;
一种系统涵括智能手表,手机,移动通讯终端产品。
5.根据权利要求1所述的一种系统界面设计方法,其特征在于在VR游戏或者体验中,通常是体感技术沉浸式的拟物,或者操控物体,或者代入感的体验;
现有的面部识别技术只是静态的针对使用者的轮廓、五官的细节比对,其识别技术与情绪动作或者情绪行为的相对差异性,个体心理或者生活习惯上的不一,以及熟知人士之间的习惯细节的自我认知和他知的辨别度;而这种不一的自我认知,恰恰具有区别、或者自我行为的保护性的识别,即心理间隔或习惯围栏;
通过在一VR程序中,给予路径的方位角的隐匿,与现实路径方位角一致的对应数据:涉及虚拟路径方位角以及定位点,或者集散点;
在没有参照物的情况下,例:沙漠的迷途中;
通过使用者的情绪,以及使用者情绪表情关联的识别技术,验证后予以应用权限:使其成为人机系统的交互信息的启示,或为每一虚拟路径方位角,给予使用者与其使用界面的定义的单一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限;
这种隐匿的虚拟路径方位角以及定位点,或者集散点;
在查询使用者的体温和心率,以及相互身体特征:身高,步距,步频真实数据后,通过使用者定义的任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限;
通过类似程序的应用许可,使用者与第三方使用者,建立与现实路径方位角一致的对应数据:虚拟路径中使用者真实的步频、步距、行走时间、以及使用者的体温和心率,通过每一转弯路径的方位角以及定位点,或者集散点,通过使用者定义的关联面部、手势、语音的情绪识别,标记转弯路径的方位角,转向,或定位点,或者集散点,形成使用者个性的行为特征情绪标记;
第三方使用者理解使用者个性的行为特征情绪标记,并解析每一转弯路径的方位角以及定位点,或者集散点,形成与现实路径方位角一致的对应数据。
6.根据权利要求1所述的一种系统界面设计方法,其特征在于MR混合现实,应用于生产中的数据管理:视觉线索成为教学中使用者的情绪行为或者情绪感知中的辅助教学;
针对不同的使用者的理解能力,以及学习疲劳的心理状态,会出现针对书本的朗读断断续续,声音的不连贯以及音量的不适变化,以及注意力的分散;以及习题中的矛盾、迟疑的空窗时间,形成无效学习;或者不停歇的习题,出现身体的不适,或为过量的脑力损耗,均通过MR教学数据的干预,实现以下有益的效果:
声音的不连贯以及音量的不适变化,以及注意力的分散,通过熟知的语音跟读、领读、提示的方式,让使用者领会用意的情况下,对MR教学数据衍生的熟知的语音,通过使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,终止MR教学数据的干预;
习题中的矛盾、迟疑的空窗时间,通过对使用者的眼球关注角度以及相应资料的问题查询,提示视频教学的启用;让使用者领会用意的情况下,对MR教学数据视频,予以使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,对教学中的数据加密,或者未予理解的问题予以解密,重复的提示,或者定向问题的重点归纳。
7.根据权利要求1所述的一种系统界面设计方法,其特征在于MR混合现实,应用于生产中的数据管理:视觉线索成为教学中使用者的情绪行为或者情绪感知中的辅助教学;
不停歇的习题,出现身体的不适,或为过量的脑力损耗,在MR教学心理语言潜在的激励中,让使用者心情放松,习题阶段性的终止,MR教学心理语言为低缓的音乐,或使用者定义的音乐;当使用者意识到积极效果后,予以使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,终止MR教学数据的干预。
8.根据权利要求1所述的一种系统界面设计方法,其特征在于使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限;
在进入虚拟空间,通过任一对应虚拟物品在现实空间使用对应的真实物品的许可权限,以及通过设备的MAC地址、WIFI地址、蓝牙地址、NFC地址、基带芯片或射频芯片的地址、SIM卡的数据号码识别、或者基于手持设备摄像机镜头的图像数据,产生对应的真实物品参照物;
通过使用者与第三方使用者相互间予以使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,形成任一对应虚拟物品在现实空间使用对应的真实物品的许可权限口令,激活一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限;
一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品相应信息涵括:真实物品位置,使用时间期限,使用者定义的关联面部、手势、语音的情绪识别。
9.一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义(101),使用者自我设定的表情和心理潜意识的行为,与个性习惯培养的情感感知,针对感受的语言,产生情感时所处的情境,先前产生这些感受时留下的记忆以及其他许多因素;决定了情感是系列行为特征的叠加,或者系列行为特征的组合;
情绪,是对一系列主观认知经验的通称,是多种感觉、思想和行为综合产生的心理和生理状态,存在人为自我的行为控制与肯定;
使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术(201),
源自针对上述行为的标记,以及在繁多的个性印像的比对确认中验证,以及使用者涵括第三方使用者的面部、手势、语音;针对局部特征,或者单一特征依次的数据列序,予以统计或者分类定义;
通过使用者的选项形成原始的对比参照物,这种原始的对比参照物进一步涵括任一眼角的扩展或者收缩,或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段的技术等同选择,或者基于上述认知的技术组合;
验证后予以使用者应用后,向第三方提供使用者情绪修正:语音速率快慢、语调高低,使用者情绪镜像的隐匿或修改,或者给予使用者预留的录制视频印像向第三方指定使用者传送相关的资讯,或使用者提示向第三方指定使用者模拟使用者定义的情绪特征的原始对比参照物:涉及任一使用者情绪表情关联的识别技术,以及通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限。
10.根据权利要求9所述的一种系统界面设计方法,其特征在于使用者向第三方提供使用者情绪修正:言语障碍由视、听、发音、书写器官的器质性病变造成,通过捕捉使用者的语言形态及情绪行为或情绪感知,在语言方面出现提示干预、重复干预、心理应激鼓励的方法,实现使用者心理与社会认知的合一,从而在心理障碍的克服,以及语言习惯的多角度,建立使用者的语言习惯和语言速率的流畅;
或影响造句表意,或理解他人言语含意的较高级过程的病态现象则为语言障碍,通过捕捉使用者的语言形态及情绪行为或情绪感知,通过预置的熟知人的语言,通过降低语速,提高音量,逐步到正常的语速、音量的辅助沟通,形成使用者的语言感知,以及思维的渐进修复,达到辅助使用者情绪修正效果;
以及,在情绪波动,喜怒哀乐经常会不经意间转换的使用者行为感知方面,通过低沉的语言环境,缓慢的语速,将使用者的正常语言环境修正,使其认知不同的自己语言特点及有益的应用效果,从而建立辅助使用者情绪修正效果;通过舒缓的音乐:涵括背景音乐,辅助的心理暗示,达到使用者的语境平和的目的。
11.一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义(101),使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术(201),验证后予以应用权限:
所述的情绪表情关联的识别技术涵括语音识别系统,针对任一定义的语音或者诵读片段,语音速率快慢、语调高低,形成使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成,或涉及脑干反射、或生理节律涵括心率与音乐节奏的共鸣、或评价性条件反射、或情绪传染、或视觉想像、或情节记忆、或对音乐的期待、或噪声影响;
以及,降低环境噪声、信道、说话人之间因素对特征造成的影响,统计声学模型,通过贝叶斯公式,建立使用者对应信息的授权,以及相对应的任一使用者,给予第三方使用者的技术授权;
或所述的情绪表情关联的识别技术涵括使用者定义的关联面部、手势、语音的情绪识别系统,通过情绪识别特征,进行情绪调整或者情绪管理: 个体和群体对自身情绪和他人情绪的认识,培养驾驭情绪的能力,并由此产生良好的管理效果;
以及针对任一眉、眼、鼻、耳的情绪反映或者情绪反激,从眉、眼、鼻、颞骨处,涵括皱眉肌、眉毛、眼睑和眼轮匝肌,鼻唇沟、嘴唇、口轮匝肌和鼻肌,与使用者面部表情、情绪、神态对应的感知的潜在动作或者预定义动作的关联,形成情绪行为特征码予以数据管理,通过使用者的情绪识别系统,获知使用者表达思想、概念、态度、感情、幻想、象征甚至抽象形式行为关联;
或所述的情绪表情关联的识别技术涵括使用者定义的关联的色彩感知系统,通过感知亮度,色彩对比的任一区间,捕捉使用者不同波长色彩的光信息作用于人的视觉器官,通过视觉神经传入大脑后,经过思维,与以往的记忆及经验产生联想,从而形成一系列的色彩心理反应,实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应的人机系统的交互信息控制授权,以及相对应的任一使用者,给予第三方使用者的技术授权。
12.根据权利要求11所述的一种系统界面设计方法,其特征在于医学临床中,凡影响通过视听途径的基本言语交际过程的病态现象属言语障碍;而影响造句表意或理解他人言语含意的较高级过程的病态现象则为语言障碍;
言语障碍由视、听、发音、书写器官的器质性病变造成,或是发育性的言语障碍,例:口吃和发不出某些辅音;
语言障碍常见于发育期,例:儿童学语迟缓;或因某些精神障碍,例:大脑受损造成失语症时语言和言语均有明显障碍;
继而,口吃和发不出某些辅音的发育性的言语障碍,通过捕捉使用者的语言形态及情绪行为或情绪感知,在语言方面出现提示干预、重复干预、心理应激鼓励方法,实现使用者心理与社会认知的合一,从而在心理障碍的克服,以及语言习惯的多角度,建立使用者的语言习惯和语言速率的流畅;
大脑受损造成失语症时语言和言语均有明显障碍,通过捕捉使用者的语言形态及情绪行为或情绪感知,通过预置的熟知人的语言,通过降低语速,提高音量,逐步到正常的语速、音量的辅助沟通,形成使用者的语言感知,以及思维的渐进修复,达到辅助使用者情绪修正效果。
13.根据权利要求11所述的一种系统界面设计方法,其特征在于针对使用者情绪波动,喜怒哀乐经常会不经意间转换的使用者行为感知方面,通过低沉的语言环境,缓慢的语速,将使用者的正常语言环境修正,使其认知不同的自己语言特点及有益的应用效果,从而建立辅助使用者情绪修正效果:避免情绪化的语言特点,在语言的熟知和自我认知中纠改情绪化的语言;以及通过舒缓的音乐,涵括背景音乐,辅助的心理暗示,达到使用者的语境平和的目的。
14.一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义(101),使用者自我设定的表情和心理潜意识的行为,与个性习惯培养的情感感知,针对感受的语言,产生情感时所处的情境,先前产生这些感受时留下的记忆以及其他许多因素;决定了情感是系列行为特征的叠加,或者系列行为特征的组合;
情绪,是对一系列主观认知经验的通称,是多种感觉、思想和行为综合产生的心理和生理状态,存在人为自我的行为控制与肯定;
使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术(201),源自针对上述行为的标记,以及在繁多的个性印像的比对确认中验证,以及使用者涵括第三方使用者的面部、手势、语音;针对局部特征,或者单一特征依次的数据列序,予以统计或者分类定义;
通过使用者的选项形成原始的对比参照物,这种原始的对比参照物进一步涵括任一眼角的扩展或者收缩,或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段的技术等同选择,或者基于上述认知的技术组合;
通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物:成为程序中使用者自己的情绪行为的替换,使其具有使用者的情绪,以及文学素养,音质特点,生成系统富有使用者特征的学习改进型的人机界面;
或为定制使用者与其使用定义系统界面,使其成为人机系统的交互信息的学习信息部分,或诵读片段,或事件提醒的行程管理。
15.根据权利要求14所述的一种系统界面设计方法,其特征在于使用者自己的情绪行为的替换:
游戏中会在潜意识中,激发使用者的语言暴徒的心理阴暗面,通过游戏角色的语言环境,通过使用者的自己语言音轨合成、音色合成、降低环境噪声、说话人之间因素对使用者语言风格特征造成的影响;
会在熟悉的语境中,自我意识与情绪的自我感知,因为角色与使用者的性格契合,使在理性的约束中,情绪自我管理;
或程序的使用界面,通过学习信息部分选择显示,或是一个章节,或是连续的段落在不同启用时间的显示,通过使用者的诵读片段,其行为的连续性,以及语言风格的差异化,在自我情绪的认知中,标记自己的情绪行为特点,实现时间碎片化的学习管理;或者是事件提醒的行程管理;情绪的风格特点,可在使用者自己的情绪标记中,应用与不同程序乃至操作系统的权限管理。
16.根据权利要求14所述的一种系统界面设计方法,其特征在于所述的情绪表情关联的识别技术涵括语音识别系统,针对任一定义的语音或者诵读片段,语音速率快慢、语音的频率高低,形成使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成,或涉及脑干反射、或生理节律涵括心率与音乐节奏的共鸣、或评价性条件反射、或情绪传染、或视觉想像、或情节记忆、或对音乐的期待、或噪声影响;
以及,降低环境噪声、信道、说话人之间因素对特征造成的影响,统计声学模型,通过贝叶斯公式,建立使用者对应信息的授权,以及相对应的任一使用者,给予第三方使用者的技术授权。
17.根据权利要求14所述的一种系统界面设计方法,其特征在于情绪表情关联的识别技术涵括使用者定义的关联的色彩感知系统,通过感知亮度,色彩对比的任一区间,捕捉使用者不同波长色彩的光信息作用于人的视觉器官,通过视觉神经传入大脑后,经过思维,与以往的记忆及经验产生联想,从而形成一系列的色彩心理反应,实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应的人机系统的交互信息控制授权,以及相对应的任一使用者,给予第三方使用者的技术授权。
18.根据权利要求14所述的一种系统界面设计方法,其特征在于语调是口语表达的重要手段,通过使用者的音质分析,使用者音轨合成、音轨分离、音色合成、第三方使用者音色合成,结合特殊的语境,能产生不同的效果,与使用者自有的语言风格有显见的技术差异:环境与使用者的语言风格的关联,以及技术针对性的差异修正;
进而在缓慢、平和的语境中,声音轻缓的表述,有助于其他地方方言环境的第三方使用者的关注,或者感知使用者的语言风格。
19.根据权利要求14所述的一种系统界面设计方法,其特征在于因环境的差别,针对自我情绪的自我管理:需要克制自我的情绪;
商业谈判中涉及争吵,激烈的主观意见的表述,需要在情绪感知中能觉察使用者的情绪应与语境行为呈现出一致性:当出现查询使用者的体温和心率真实数据剧烈后,启用情绪干预暗示,实现辅助使用者情绪修正;情绪张力下降,内心自然恢复平静;因为人的痛苦并不是来源于情绪本身,而是来源于对情绪的抵触;
情绪大部分时候都是在发泄,所以伤己伤人,妨碍沟通;通过静默倒数8秒,舒缓现状的情绪恶化,利于调节情绪,对生活中矛盾和事件引起的反应能适当的排解,能以乐观的态度、幽默的情趣及时地缓解紧张的心理状态;
情绪管理是将这些感受、反应、评估和特定行为挖掘并驾驭的一种手段;情绪管理是指通过研究个体和群体对自身情绪和他人情绪的认识、协调、引导、互动和控制,充分挖掘和培植个体和群体的情绪智商、培养驾驭情绪的能力,从而确保个体和群体保持良好的情绪状态,并由此产生良好管理效果的一种管理手段:情绪管理是对个体和群体的情绪感知、控制、调节的过程。
20.根据权利要求14所述的一种系统界面设计方法,其特征在于情绪表情关联的识别技术涵括使用者定义的关联的色彩感知系统,通过感知亮度,色彩对比的任一区间,捕捉使用者不同波长色彩的光信息作用于人的视觉器官,通过视觉神经传入大脑后,经过思维,与以往的记忆及经验产生联想,从而形成一系列的色彩心理反应,实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应的人机系统的交互信息控制授权,以及相对应的任一使用者,给予第三方使用者的技术授权;
色彩的冷暖感觉,不仅表现在固定的色相上,而且在比较中还会显示其相对的倾向性,以及视错觉的一种现象;
通过取景摄像头对面部表情情绪以及眼球的关注,以及实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应的人机系统的交互信息控制授权,以及相对应的任一使用者,给予第三方使用者的技术授权;或者相对应的任一使用者,给予相应程序人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,验证后予以应用权限:或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密。
21.根据权利要求14所述的一种系统界面设计方法,其特征在于使用者定义一种以及多种颜色的图案,赋予其相对应的应用功能指令,所述的一种以及多种颜色,来自色系中的一数值,且色彩区间为使用者所感知并确认不易混淆,或为程序的局部功能,或为程序的任一控制权限;
或一图案,使用者通过情绪定义的任一动作,或任一语音,有序标记不同颜色;或颜色按照颜色摆列次序无序的组合为图案标记一部分或全部;
将有序标记不同颜色;或颜色按照颜色摆列次序无序的组合为图案标记一部分或全部,作为使用者定义的情绪表情关联的识别特征,验证后予以应用权限:
使用者向第三方授予相应的感知理解权限,以及相应定义的操作权限。
22.一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义(101),使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术(201),通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,与另一使用者虚拟数字形象,相互间形成程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或者一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,针对在现实空间任一指定的操作系统授权另一使用者虚拟数字形象验证进入权限;
以及或为使用者程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,针对在现实空间任一指定的物品授权任一其他使用者验证进入使用权限;
以及或为使用者程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密。
23.根据权利要求22所述的一种系统界面设计方法,其特征在于通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物:成为程序中使用者自己的情绪行为的替换,使其具有使用者的情绪,以及文学素养,音质特点,生成系统富有使用者特征的学习改进型的人机界面:
游戏中,会在潜意识中,激发使用者的语言暴徒的心理阴暗面;
通过建立使用者的情绪行为特征,例:通过游戏角色的语言环境,通过使用者的自己语言音轨合成、音色合成、降低环境噪声、说话人等因素对使用者语言风格特征造成的影响;
会在熟悉的语境中,自我意识与情绪的自我感知,因为角色与使用者的性格契合,使在理性的约束中,情绪自我管理。
24.根据权利要求22所述的一种系统界面设计方法,其特征在于通过使用者情绪感知,克隆其使用者虚拟情绪形象的数字化人物:成为程序中使用者自己的情绪行为的替换,使其具有使用者的情绪,以及文学素养,音质特点,生成系统富有使用者特征的学习改进型的人机界面:
任一程序的使用界面,通过学习信息部分选择显示,或是一个章节,或是连续的段落在不同启用时间的显示,通过使用者的诵读片段,其行为的连续性,以及语言风格的差异化,在自我情绪的认知中,标记自己的情绪行为特点,实现时间碎片化的学习管理;或者是事件提醒的行程管理;
任一程序的使用界面,通过学习信息部分选择显示,或是一个章节,或是连续的段落,或是唐诗宋词,或是名人名句,或是两个熟知人相互间的“蜜语”:这种诵读片段,因为情绪的风格特点,在使用者自己的情绪标记中,应用与不同程序乃至操作系统的权限管理。
25.一种系统界面设计方法,其特征在于其系统界面给予多位使用者与其共有使用界面的定义(101),使其成为人机系统的交互信息的启示,源自多位使用者的情绪,以及多位使用者情绪表情关联的识别技术(201),多位使用者通过先后次序的情绪行为或者情绪感知,多位使用者不一致的情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,予以人机系统的交互信息的应用权限;
验证后予以应用权限:
或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
或为使用者一区间验证进入的权限,涵括使用者在一区间任一物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间任一虚拟物品使用的权限;
以及,为使用者一虚拟空间进入验证进入的权限,涵括使用者在一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品的许可权限。
26.根据权利要求25所述的一种系统界面设计方法,其特征在于游戏干预:
家庭教育中,孩子出现了游戏沉迷时,家长作为使用者,通过标记的情绪语言风格,提示:孩子,休息会,爸爸要看看你的作业了。
27.根据权利要求25所述的一种系统界面设计方法,其特征在于数据管理:计算机的发展应用中,出现了用户权限,工作组,域的等应用权限管理;在数据应用上,存在远程管理,以及防火墙等应用技术;
克隆使用者虚拟情绪形象的数字化人物,使使用者虚拟数字形象,在虚拟环境或虚拟空间内,针对在现实空间任一指定的操作系统授权另一使用者虚拟数字形象验证进入权限;
通过使用者虚拟数字形象定义的诵读片段,因为情绪的风格特点,在使用者自己的情绪标记中,应用与不同程序乃至操作系统的权限管理;
另一使用者虚拟数字形象通过涵括情绪的风格特点诵读片段模拟,获取应用与不同程序乃至操作系统的权限许可授权管理。
28.根据权利要求25所述的一种系统界面设计方法,其特征在于虚拟空间进行现实物品的使用权限交接:
使用者进入虚拟空间,通过任一对应虚拟物品在现实空间使用对应的真实物品的许可权限,以及通过设备的MAC地址、WIFI地址、蓝牙地址、NFC地址、基带芯片或射频芯片的地址、SIM卡的数据号码识别、或者基于手持设备摄像机镜头的图像数据,产生对应的真实物品参照物;
一虚拟区间选择任一对应虚拟物品在现实空间使用对应的真实物品相应信息涵括:真实物品位置,使用时间期限,使用者定义的关联面部、手势、语音的情绪识别;
在现实空间任一指定的物品授权任一其他使用者验证进入使用权限;源自使用者自己的情绪标记,是一个章节,或是连续的段落在不同启用时间的显示,通过使用者的诵读片段,其行为的连续性,以及语言风格的差异化,在自我情绪的认知中,标记自己的情绪行为特点;
在现实空间任一指定的物品授权任一其他使用者验证进入使用权限前,任一其他使用者通过模拟“使用者自己的情绪标记,是一个章节,或是连续的段落在不同启用时间的显示,通过使用者的诵读片段”,通过进入使用权限许可;并使第三方使用者获知现实空间任一指定的物品相应位置,以及性能说明;
以及或为使用者程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密许可。
29.一种系统界面设计方法,其特征在于其系统界面给予使用者多个与其使用界面的定义(101),使其成为人机系统的交互信息的随机启示、或组合启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术(201),验证后予以应用权限:
或为使用者操作系统验证进入权限;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密;
使用者情绪表情关联的识别技术通过使用者多个的面部、手势、语音的原始对比参照物;
结合任一时段使用者定义的关联面部、手势、语音的情绪识别,涵括有:或任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成符合条件的技术应激参照物表情,通过多个与其使用界面的定义选择其中至少一个系统界面给予使用者与其使用界面的定义,予以人机系统的交互信息的应用权限验证;
或通过多个与其使用界面的定义选择先后次序的组合定义,予以人机系统的交互信息的应用权限验证。
30.根据权利要求29所述的一种系统界面设计方法,其特征在于情绪复合多位使用者的协同应用:
在医院中,病例管理与临床教学是属于不同部门管理;
结合虚拟空间、现实空间不一致的多位使用者的协同应用以及多人授信,以及现实空间不一致的多人授信以及协同应用:需要将实时手术,以及手术病例资料同步存储,远程医疗支援同步进行,涉及实时手术录制中的技术讲解,点评分析;涉及医疗器材与技术支持;
一使用者对医疗器材的使用,实时手术,或与另一现实空间不一致的使用者通过网络或者VR、AR、MR技术协助多人授信,实现电子病例的技术讲解,点评分析,注意事项的提示;
手术中患者许可的前提下,以及手术中的使用者,在手术状态下的情绪,叠加于MR实时病例管理的数据中,生成可视的电子病例;临床教学的另一组使用者,则将学习空间中任意方向、任意位置投射全息成像,通过实时渲染和空间定位,临床教学的另一组使用者拖动可视的电子病例的任一数据或者模拟相似的数据镜像,模拟手术,并同步就手术中的问题、操作,与手术中的使用者同步交流:能够实时检测跟踪用户的空间位置变化,并将全息影像的坐标与现实重叠,支持同步定位与映射,实现全息影像与现实世界之间的智能识别;
形成一对一或一对多的实时数据生成,可视的电子病例或是手术后的教学镜像,进而针对每一临床教学的另一组使用者的情绪,手术动作感知,再次生成个性化病例,以便事后技术对比,分析,改正。
31.根据权利要求29所述的一种系统界面设计方法,其特征在于情绪复合多位使用者的协同应用,涉及山地越野接力:
通常驾驶者操作车辆,副驾驶针对前行路况的地图或者实时数据更正操作方向,速度,制动,直行或转弯路段距离提示;相互使用者的情绪,叠加于AR、VR的数据镜像中,前者为实时驾驶;后者为模拟驾驶,或者山地越野接力赛前训练,或者山地越野接力赛后技术分析;
对于驾驶者的情绪感知,结合前行路况的地图或者实时数据更正操作方向,速度,制动,直行或转弯路段距离提示判断的准确度,动作的可控性,均有积极的应用效果;
在对于副驾驶的情绪感知,结合针对前行路况的地图或者实时数据更正操作方向,速度,制动,直行或转弯路段距离提示,语速、语调高低、以及语音的清晰度、准确性,均为山地越野接力赛的改进事项:并就相互使用者的相互情绪干扰,管理,予以事后的借鉴。
32.根据权利要求29所述的一种系统界面设计方法,其特征在于多个与其使用界面的定义,涵括使用者或第三方使用者相互间的动态定义,
例:第三方使用者指定的文本,通过使用者语音或者诵读片段;例:第三方使用者定义的动作,生成使用者释读动作的成语,或者诗词,或者谜语解读;以及使用者涵括第三方使用者的特定任一行为关联的情绪特征;通过一种系统界面随机或者组合展示的方式,使用者涵括第三方使用者通过面部表情选择确认,或者否认;或者语音选择确认,或者否认;或者动作模拟,选择确认,或者否认;以及上述行为的情绪定义,针对多个与其使用界面的定义,予以排除或予以先后次序的排列;以获取人机系统的交互信息的应用权限验证。
33.一种系统界面设计方法,其特征在于,所述方法包括如下步骤:
S1.针对任一眼角的扩展或者收缩、或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、或任一定义的语音或者诵读片段,或涵括使用者定义的关联的色彩感知系统,通过感知亮度,色彩对比的任一区间,捕捉使用者不同波长色彩的光信息作用于人的视觉器官,通过视觉神经传入大脑后,经过思维,与以往的记忆及经验产生联想,从而形成一系列的色彩心理反应,实现使用者色彩的心理象征、色彩的视觉效应、色彩的味觉效应、色彩的情绪效应,形成原始对比参照物数据特征;
S2.针对使用者任一眼角的扩展或者收缩,或眼球的上下左右的转动或者闭合、嘴唇开合或者紧闭、面部肌肉的放松或者紧绷、任一手部及手指相互间的紧握或释放、或任一手指比划的动作、任一定义的语音或者诵读片段,形成使用者与其使用界面的定义,或为使用者操作系统情绪数据特征比对;
或为使用者任一程序控制权限,涵括程序操作、程序开启、程序关闭、程序隐匿、程序数据加密、程序存储加密的情绪数据特征比对;
S3.针对使用者原始对比参照物数据特征验证,通过予以授权进入使用权限,未通过则否决授权进入使用权限。
34.根据权利要求1,或9,或11,或14,或22,或25,或29所述的一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及文学素养,音质特点,所述方法:涵括使用者情绪应用定义,情绪修正,情绪干扰,情绪管理;
以及涵括使用者授予第三方使用者相互间情绪应用定义,使用者针对第三方使用者情绪修正,使用者与于第三方使用者相互间情绪干扰,使用者与第三方使用者相互间情绪管理。
35.根据权利要求1,或9,或11,或14,或22,或25,或29所述的一种系统界面设计方法,其特征在于其系统界面给予使用者与其使用界面的定义,使其成为人机系统的交互信息的启示,源自使用者的情绪,以及使用者情绪表情关联的识别技术,依赖于:
取景摄像头(1)对使用者情绪感知,以及对第三人使用者情绪感知,取景摄像头具有高速摄像慢速回放至<1%秒的高清画面识别应用功能;
或集输入信号进行放大、混合、分配、音质修饰和背景音效修饰,音频录音、音频编辑、内部效果处理、自动缩混功能的音频设备(2),音频设备信噪比、采样位数、采样频率、总谐波失真相应指数优选无损音频技术标准;
或涵括运用软、硬件结合的方法,以CIE色度空间为参考色彩空间,特征文件记录设备输入或输出的色彩特征,并利用应用软件及第三方色彩管理软件作为使用者的色彩控制工具(3);
或使用者情绪表情关联的识别技术通过使用者任一的面部、手势、语音的原始对比参照物衍生的数据特征;
或选使用者生理检测系统(4),涵括一体温传感器、或一心率传感器,用于身体实时状态的健康数据值区间管理,以及,或人工定期输入体重、身高、步距信息,或选一体重感应器,身高、步距信息生存行进速度,行进距离分析的依据,体重作为使用者身体热量消耗分析的数值区间管理;
或使用者定义的关联面部、手势、语音的情绪识别技术支持的任一MCU微控制器单元(5),或MPU微处理器单元(5),或DSP数字信号处理器(5),或DSC数字信号控制器芯片(5),或NPU神经网络处理器(5),或CPU中央处理器(5),或GPU图像处理器(5),或TPU张量处理器(5),或DPU深度学习处理器(5),或BPU大脑处理器(5)。
36.根据权利要求35所述的一种系统界面设计方法,其特征在于使用者情绪表情关联的识别技术,依赖于:取景摄像头(1)对使用者情绪感知,以及对第三人使用者情绪感知,取景摄像头具有高速摄像慢速回放至<1%秒的高清画面识别应用功能;通过取景摄像头情绪行为的记录,生成GIF、MPEG、MPG、DAT、AVI、MOV、ASF、WMV、NAVI、3GP、REAL VIDEO、MKV、FLV、F4V、RMVB、WebM、HDDVD、BLU-RAY DISK、QSV格式视频数据,用于使用者情绪自我定义。
37.根据权利要求35所述的一种系统界面设计方法,其特征在于涵括运用软、硬件结合的方法,以CIE色度空间为参考色彩空间,特征文件记录设备输入或输出的色彩特征,并利用应用软件及第三方色彩管理软件作为使用者的色彩控制工具(3);
色彩管理,基本需要顺序经过三个步骤,这三个步骤称为“3C”,即设备校正 (“Calibration” ),设备特征化( “Characterisation”)及转换色彩空间(“Conversion”),构建了一种包括与设备无关的色彩空间PCS(Profile Connection Space),设备颜色特性文件的标准格式(ICC Profile)和色彩管理模块CMM( Color Management Modle)的系统级色彩管理框架,称为ICC标准格式;
相加混色三基色所表示的颜色模式称为RGB模式,或用相减混色三基色原理所表示的颜色模式称为CMYK模式,建立以一种标准化的方式交流和处理图像的色彩管理模块,并允许色彩管理过程跨平台和操作系统进行。
38.根据权利要求35所述的一种系统界面设计方法,其特征在于使用者生理检测系统(4),涵括一体温传感器、或一心率传感器,用于身体实时状态的健康数据值区间管理,以及,或人工定期输入体重、身高、步距信息,或选一体重感应器,身高、步距信息生存行进速度,行进距离分析的依据,体重作为使用者身体热量消耗分析的数值区间管理;选择的传感器包括:压电传感器,或超声波式传感器,或磁致伸缩传感器,或离化传感器,或极化传感器,或热电传感器,或光电传感器,或磁电传感器,或光敏传感器;或压力敏和力敏传感器,或位置传感器,或液面传感器,或能耗传感器,或速度传感器,或热敏传感器,或加速度传感器,或射线辐射传感器,或振动传感器,或湿敏传感器,或磁敏传感器,或气敏传感器,或真空度传感器,或生物传感器。
CN201910124428.XA 2019-02-20 2019-02-20 一种系统界面设计方法 Active CN109976513B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910124428.XA CN109976513B (zh) 2019-02-20 2019-02-20 一种系统界面设计方法
PCT/CN2020/075638 WO2020169011A1 (zh) 2019-02-20 2020-02-18 一种人机系统交互界面设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910124428.XA CN109976513B (zh) 2019-02-20 2019-02-20 一种系统界面设计方法

Publications (2)

Publication Number Publication Date
CN109976513A CN109976513A (zh) 2019-07-05
CN109976513B true CN109976513B (zh) 2020-03-03

Family

ID=67077015

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910124428.XA Active CN109976513B (zh) 2019-02-20 2019-02-20 一种系统界面设计方法

Country Status (2)

Country Link
CN (1) CN109976513B (zh)
WO (1) WO2020169011A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109976513B (zh) * 2019-02-20 2020-03-03 方科峰 一种系统界面设计方法
CN110516416B (zh) * 2019-08-06 2021-08-06 咪咕文化科技有限公司 身份验证方法、验证端和客户端
CN110796739A (zh) * 2019-09-27 2020-02-14 哈雷医用(广州)智能技术有限公司 一种颅脑手术虚拟现实仿真方法及系统
CN110688631B (zh) * 2019-09-29 2023-06-16 西北大学 基于rbac的虚拟教学环境下细粒度权限动态控制系统
CN111427644B (zh) * 2020-03-04 2022-05-06 维沃软件技术有限公司 一种目标行为识别方法及电子设备
CN112579744B (zh) * 2020-12-28 2024-03-26 北京智能工场科技有限公司 一种在线心理咨询中风险控制的方法
CN112287397B (zh) * 2020-12-28 2021-04-23 曜立科技(北京)有限公司 一种提高保障患者信息传输安全性的系统及方法
US20230063681A1 (en) * 2021-08-25 2023-03-02 Sony Interactive Entertainment Inc. Dynamic augmentation of stimuli based on profile of user
CN114816625B (zh) * 2022-04-08 2023-06-16 郑州铁路职业技术学院 一种自动交互系统界面设计方法和装置
CN116301698B (zh) * 2023-05-16 2023-08-22 佳瑛科技有限公司 一种基于多屏互动的文档共享操作显示方法、装置及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105242942A (zh) * 2015-09-17 2016-01-13 小米科技有限责任公司 应用控制方法和装置
CN107053191A (zh) * 2016-12-31 2017-08-18 华为技术有限公司 一种机器人,服务器及人机互动方法
CN108255307A (zh) * 2018-02-08 2018-07-06 竹间智能科技(上海)有限公司 基于多模态情绪与脸部属性识别的人机交互方法、系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102142253B (zh) * 2010-01-29 2013-05-29 富士通株式会社 语音情感识别设备及方法
CN101930733B (zh) * 2010-09-03 2012-05-30 中国科学院声学研究所 一种用于语音情感识别的语音情感特征提取方法
US20120130717A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
CN102509053A (zh) * 2011-11-23 2012-06-20 唐辉 用于验证授权的方法、处理器、设备和移动终端
CN102723078B (zh) * 2012-07-03 2014-04-30 武汉科技大学 基于自然言语理解的语音情感识别方法
US9032510B2 (en) * 2012-09-11 2015-05-12 Sony Corporation Gesture- and expression-based authentication
KR101643573B1 (ko) * 2014-11-21 2016-07-29 한국과학기술연구원 얼굴 표정 정규화를 통한 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치
CN104574088B (zh) * 2015-02-04 2018-10-19 华为技术有限公司 支付认证的方法和装置
US11072311B2 (en) * 2017-09-05 2021-07-27 Future Mobility Corporation Limited Methods and systems for user recognition and expression for an automobile
CN109976513B (zh) * 2019-02-20 2020-03-03 方科峰 一种系统界面设计方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105242942A (zh) * 2015-09-17 2016-01-13 小米科技有限责任公司 应用控制方法和装置
CN107053191A (zh) * 2016-12-31 2017-08-18 华为技术有限公司 一种机器人,服务器及人机互动方法
CN108255307A (zh) * 2018-02-08 2018-07-06 竹间智能科技(上海)有限公司 基于多模态情绪与脸部属性识别的人机交互方法、系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
一种共情训练提升初中生人际关系的干预研究;郭志映;《中国优秀硕士学位论文全文数据库哲学与人文科学辑》;20161015(第10期);第40-41页 *

Also Published As

Publication number Publication date
WO2020169011A1 (zh) 2020-08-27
CN109976513A (zh) 2019-07-05

Similar Documents

Publication Publication Date Title
CN109976513B (zh) 一种系统界面设计方法
US20230072423A1 (en) Wearable electronic devices and extended reality systems including neuromuscular sensors
US11402909B2 (en) Brain computer interface for augmented reality
US11237635B2 (en) Nonverbal multi-input and feedback devices for user intended computer control and communication of text, graphics and audio
US20200296480A1 (en) Production and control of cinematic content responsive to user emotional state
CN109564706B (zh) 基于智能交互式增强现实的用户交互平台
TWI658377B (zh) 機器人輔助互動系統及其方法
US20210280322A1 (en) Wearable-based certification of a premises as contagion-safe
CN105981083B (zh) 智能可穿戴设备和用于优化输出的方法
KR102277820B1 (ko) 반응정보 및 감정정보를 이용한 심리 상담 시스템 및 그 방법
WO2016080553A1 (ja) 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
JP2016513319A (ja) 収集された生物物理的信号の時間的パターンおよび空間的パターンに基づく脳‐コンピューターインターフェース(bci)システム
JP2018505505A (ja) 顔の幾何学的形状の歪みによるコンピュータの制御
Vega et al. Beauty Technology
EP3856012B1 (en) Visualized virtual agent
JP7066115B2 (ja) パブリックスピーキング支援装置、及びプログラム
WO2020175969A1 (ko) 감정 인식 장치 및 감정 인식 방법
CN112437226B (zh) 图像处理方法、设备及存储介质
Carmigniani Augmented reality methods and algorithms for hearing augmentation
Rakkolainen et al. State of the Art in Extended Reality—Multimodal Interaction
US11822719B1 (en) System and method for controlling digital cinematic content based on emotional state of characters
KR102647730B1 (ko) 워핑기술을 이용한 자폐증 환자의 상호작용 훈련 시스템 및 영상 워핑 모델 학습 방법
WO2022065386A1 (ja) 思考推論システム、推論モデル生成システム、思考推論装置、推論モデル生成方法、コンピュータプログラム、および推論モデル
WO2021215267A1 (ja) 制御装置、及び制御方法
Siddharth Utilizing Multi-modal Bio-sensing Toward Affective Computing in Real-world Scenarios

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant