CN113760210A - 一种处理方法和装置 - Google Patents
一种处理方法和装置 Download PDFInfo
- Publication number
- CN113760210A CN113760210A CN202110960271.1A CN202110960271A CN113760210A CN 113760210 A CN113760210 A CN 113760210A CN 202110960271 A CN202110960271 A CN 202110960271A CN 113760210 A CN113760210 A CN 113760210A
- Authority
- CN
- China
- Prior art keywords
- input
- parameter
- target
- display
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 54
- 230000000875 corresponding effect Effects 0.000 claims description 80
- 206010034719 Personality change Diseases 0.000 claims description 15
- 230000008451 emotion Effects 0.000 claims description 7
- 230000006399 behavior Effects 0.000 description 49
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004043 dyeing Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 229910052698 phosphorus Inorganic materials 0.000 description 2
- 239000010749 BS 2869 Class C1 Substances 0.000 description 1
- 239000010750 BS 2869 Class C2 Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 229910052757 nitrogen Inorganic materials 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1407—General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/109—Font handling; Temporal or kinetic typography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/333—Preprocessing; Feature extraction
- G06V30/347—Sampling; Contour coding; Stroke extraction
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/22—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/36—Matching; Classification
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Circuits Of Receivers In General (AREA)
Abstract
本申请实施例公开了一种处理方法,所述方法包括:获得操作体作用于电子设备的输入部件的输入信息,所述输入信息包括输入目标字词的过程中所述操作体的行为参数;至少基于所述行为参数确定所述目标字词的显示参数,以能够根据所述显示参数在目标显示部件上显示所述目标字词;其中,所述显示参数至少能够表征所述操作体在输入所述目标字词时的特征信息。本申请实施例还公开了一种处理装置。
Description
技术领域
本申请涉及信息技术领域中的处理技术,尤其涉及一种处理方法和装置。
背景技术
随着电子时代的到来,电子设备的使用越来越普遍;尤其,人们越来越喜欢用电子设备进行通讯和记录信息;但是,现在的电子设备(例如手机、平板电脑等)在其上输入完一个字词后,如果想要改变字词的字体的样式如粗细、颜色等,需要用户手动来设置;这种操作方法智能性太差,且效率比较低。
发明内容
本申请的技术方案是这样实现的:
一种处理方法,所述方法包括:
获得操作体作用于电子设备的输入部件的输入信息,所述输入信息包括输入目标字词的过程中所述操作体的行为参数;
至少基于所述行为参数确定所述目标字词的显示参数,以能够根据所述显示参数在目标显示部件上显示所述目标字词;
其中,所述显示参数至少能够表征所述操作体在输入所述目标字词时的特征信息。
上述方案中,所述获得操作体作用于电子设备的输入部件的输入信息,包括:
获得操作体作用于电子设备的键盘或手写区域的输入轨迹信息,至少基于所述输入轨迹信息获得待输入的目标字词及该目标字词对应的输入轨迹参数;或,
获得操作体输入至电子设备的音频采集部件的语音输入信息,至少基于所述语音输入信息获得待输入的目标字词及该目标字词对应的语音输入参数;或,
获得操作体作用于电子设备的姿态采集部件的姿态输入信息,至少基于所述姿态输入信息获得待输入的目标字词及该目标字词对应的姿态输入参数。
上述方案中,如果所述行为参数为输入轨迹参数,所述至少基于所述行为参数确定所述目标字词的显示参数,包括:
基于所述输入轨迹参数确定所述目标字词的显示参数;或,
基于所述输入轨迹参数和所述目标字词的对应属性确定所述目标字词的显示参数。
上述方案中,所述基于所述输入轨迹参数确定所述目标字词的显示参数,包括以下至少之一:
基于所述输入轨迹参数中的输入速率确定所述目标字词的第一显示参数;
基于所述输入轨迹参数中的输入压力确定所述目标字词的第二显示参数;或,
基于所述输入轨迹参数中的轨迹方向变化参数确定所述目标字词的第三显示参数;
且/或,
所述基于所述输入轨迹参数和所述目标字词的对应属性确定所述目标字词的显示参数,包括:
基于所述输入轨迹参数、以及所述目标字词的情感属性和/或意思属性确定所述目标字词的第四显示参数;
其中,所述显示参数至少包括字符大小、字符线条粗细、字符形态或字符色彩。
上述方案中,所述基于所述输入轨迹参数确定所述目标字词的显示参数,还包括以下至少之一:
确定所述目标字词中每个字符对应的目标输入轨迹;
基于所述目标输入轨迹的目标触控点的输入轨迹参数确定所述输入速率,并基于所述输入速率确定所述目标字词的第一显示参数;
基于所述目标触控点的输入压力和所述目标触控点的数量,确定所述目标字词的第二显示参数;
从所述目标触控点中确定基础触控点,并基于所述目标触控点中首触控点的位置信息、尾触控点的位置信息和所述基础触控点的位置信息,确定所述目标字词的所述第三显示参数;其中,所述轨迹方向变化参数包括位置信息。
上述方案中,如果所述行为参数为语音输入参数,所述至少基于所述行为参数确定所述目标字词的显示参数,包括:
基于所述语音输入参数确定所述目标字词的显示参数;或,
基于所述语音输入参数和所述目标字词的对应属性确定所述目标字词的显示参数;
其中,所述语音输入参数包括音量、语调、语气、音色、声纹中的至少之一。
上述方案中,如果所述行为参数为姿态输入参数,所述至少基于所述行为参数确定所述目标字词的显示参数,包括:
基于所述姿态输入参数确定所述目标字词的显示参数;或,
基于所述姿态输入参数和所述目标字词的对应属性确定所述目标字词的显示参数;
其中,所述姿态输入参数包括姿态变化速度、姿态变化幅度、姿态变化频率中的至少之一。
上述方案中,如果电子设备与第二电子设备处于连接状态,获得所述第二电子设备的显示部件的配置参数,基于所述配置参数和所述行为参数确定所述目标字词的显示参数,或,基于所述配置参数调整所述显示参数;或,
如果电子设备处于特定运行模式,至少基于所述特定运行模式调整所述显示参数。
上述方案中,所述根据所述显示参数在目标显示部件上显示所述目标字词,包括:
至少根据所述显示参数在电子设备的各显示部件中确定目标显示部件,在所述目标显示部件上显示所述目标字词;且/或,
根据所述显示参数确定电子设备的发光组件的发光参数和/或音频模组的输出参数,以在所述目标显示部件上显示所述目标字词时,基于所述发光参数控制所述发光组件发光和/或基于所述输出参数控制所述音频模组输出对应内容。
一种处理装置,包括:
获取单元,用于获得操作体作用于电子设备的输入部件的输入信息,所述输入信息包括输入目标字词的过程中所述操作体的行为参数;
确定单元,用于至少基于所述行为参数确定所述目标字词的显示参数,以能够根据所述显示参数在目标显示部件上显示所述目标字词;
其中,所述显示参数至少能够表征所述操作体在输入所述目标字词时的特征信息。
一种电子设备,所述电子设备可以包括:处理器、存储器和通信总线,其中:
通信总线用于实现处理器和存储器之间的通信连接;
处理器用于执行存储器中存储的处理程序,以实现以下步骤:
获得操作体作用于电子设备的输入部件的输入信息,输入信息包括输入目标字词的过程中操作体的行为参数;
至少基于行为参数确定目标字词的显示参数,以能够根据显示参数在目标显示部件上显示目标字词;
其中,显示参数至少能够表征操作体在输入目标字词时的特征信息。
一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述所述的处理方法中的步骤。
本申请的实施例所提供的处理方法和装置,获得操作体作用于电子设备的输入部件的输入信息,输入信息包括输入目标字词的过程中操作体的行为参数,至少基于行为参数确定目标字词的显示参数,以能够根据显示参数在目标显示部件上显示目标字词,显示参数至少能够表征操作体在输入目标字词时的特征信息,如此,电子设备可以直接根据操作体输入目标字词的过程比重的行为参数来确定目标字词显示出来的显示参数,而不需要用户手动去修改目标字词的显示参数,解决了相关技术中修改输入至电子设备的字词的字体样式无法体现输入者个性的问题,提高了智能性和书写效率。
附图说明
图1为本申请的实施例提供的一种处理方法的流程示意图;
图2为本申请的实施例提供的另一种处理方法的流程示意图;
图3为本申请的实施例提供的又一种处理方法的流程示意图;
图4为本申请的另一实施例提供的一种处理方法的流程示意图;
图5为本申请的另一实施例提供的另一种处理方法的流程示意图;
图6为本申请的实施例提供的一种确定目标字词的显示参数的流程示意图;
图7为本申请的实施例提供的一种处理装置的结构示意图;
图8为本申请的实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
应理解,说明书通篇中提到的“本申请实施例”或“前述实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“本申请实施例中”或“在前述实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中应。在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在未做特殊说明的情况下,电子设备执行本申请实施例中的任一步骤,可以是电子设备的处理器执行该步骤。还值得注意的是,本申请实施例并不限定电子设备执行下述步骤的先后顺序。另外,不同实施例中对数据进行处理所采用的方式可以是相同的方法或不同的方法。还需说明的是,本申请实施例中的任一步骤是电子设备可以独立执行的,即电子设备执行下述实施例中的任一步骤时,可以不依赖于其它步骤的执行。
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请的实施例提供一种处理方法,该方法可以应用于电子设备中,参照图1所示,该方法包括以下步骤:
步骤101、获得操作体作用于电子设备的输入部件的输入信息。
其中,输入信息包括输入目标字词的过程中操作体的行为参数。
在本申请实施例中,操作体可以指的是用来输入信息至电子设备的输入部件的输入对象的肢体,也可以指的是触控笔;在一种可行的实现方式中,输入信息还可以包括输入对象、行为参数、输入内容(例如目标字词)等;需要说明的是,行为参数可以指的是操作体在输入目标字词的过程中产生的行为信息;输入部件可以指的是电子设备的用来接收信息输入的信息的部件,可以指的是键盘、手写区域、麦克风或者触控屏幕等。
并且,输入信息可以是电子设备在操作体将目标字词输入至电子设备输入部件过程中采集得到的。当然,行为参数可以根据操作体向输入部件输入目标字词的方式的不同而不同;在一种可行的实现方式中,行为参数可以包括输入轨迹参数、语音输入征参数和姿态输入参数等。
步骤102、至少基于行为参数确定目标字词的显示参数,以能够根据显示参数在目标显示部件上显示目标字词。
其中,显示参数至少能够表征操作体在输入目标字词时的特征信息。
在本申请实施例中,电子设备可以根据得到的行为参数进行分析处理,得到用来显示目标字词的显示参数,进而将目标字词以该显示参数显示在目标显示部件上;在一种可行的实现方式中,显示参数可以包括第一显示参数、第二显示参数、第三显示参数和第四显示参数,且第一显示参数、第二显示参数、第三显示参数和第四显示参数各不相同。需要说明的是,目标显示部件可以指的是电子设备的显示部件,也可以指的是其他与电子设备具有通信连接的电子设备的显示部件。
本申请的实施例所提供的处理方法,获得操作体作用于电子设备的输入部件的输入信息,输入信息包括输入目标字词的过程中操作体的行为参数,至少基于行为参数确定目标字词的显示参数,以能够根据显示参数在目标显示部件上显示目标字词,显示参数至少能够表征操作体在输入目标字词时的特征信息,如此,电子设备可以直接根据操作体输入目标字词的过程比重的行为参数来确定目标字词显示出来的显示参数,而不需要用户手动去修改目标字词的显示参数,解决了相关技术中修改输入至电子设备的字词的字体样式无法体现输入者个性的问题,提高了智能性和书写效率。
基于前述实施例,本申请的实施例提供一种处理方法,行为参数包括输入轨迹参数,参照图2和图3所示,该方法包括以下步骤:
步骤201、电子设备获得操作体作用于电子设备的键盘或手写区域的输入轨迹信息,至少基于输入轨迹信息获得待输入的目标字词及该目标字词对应的输入轨迹参数。
其中,键盘或手写区域指的是电子设备的输入部件,也就是说输入轨迹信息是在操作体将目标字词通过键盘或手写区域输入至电子设备的过程中获取到的。且,输入轨迹参数可以是通过对输入轨迹信息进行分析处理后得到的。
在本申请实施例中,可以通过以下方式来确定操作体输入的目标字词:对输入轨迹信息进行分析得到输入轨迹信息对应的触控点,确定触控点的触控属性信息和触控点对应的字符,从触控点对应的字符中确定目标字符,并基于目标字符确定目标字词。
具体的,步骤从触控点对应的字符中确定目标字符,并基于目标字符确定目标字词,可以通过以下方式来实现:
A1、从触控点的除首尾两个触控点之外的触控点中获取目标触控点,并基于触控点对应的字符确定目标触控点对应的字符。
其中,若最后一个触控点是是标点符号,则需要剔除开最后两个触控点来确定目标触控点。
A2、计算目标触控点对应的字符的字符概率,并获取字符概率大于目标概率阈值的目标字符。
其中,字符概率可以是通过以下方式得到的:先计算目标触控点对应的字符中每一字符对应的触控点的数量,之后基于每一字符对应的触控点的数量和输入轨迹对应的触控点的数量,确定每一字符的字符概率。需要说明的是,目标概率阈值可以是基于历史数据预先设置的。
A3、基于目标字符和目标触控点对应的字符中的首尾字符,确定目标字词。
其中,目标字词可以进一步通过以下方式来得到:将目标字符和目标触控点对应的字符中的首尾字符进行组合得到待选词语,并将待选词语与词语库中的词语进行匹配确定匹配的词语,之后从匹配的词语中确定目标字词。
需要说明的是,如果待选词语不是英文,例如是中文,还需将中文对应的拼音映射到英文字符中形成对应的词语;之后返回匹配的词语形成一个词语列表,最终可以由用户从词语列表中选择目标字词。
在一种可行的实现方式中,针对每一个触控点可以形成具有(X,Y,T, P,Label)样式的数据;其中,X是触控点的横坐标,Y是触控点的纵坐标,T 是当前时间,P为触控点的输入压力,Label为该触控点对应的字符。
步骤202、电子设备基于输入轨迹参数确定目标字词的显示参数。
其中,输入轨迹参数可以指的是得到目标字词的过程中形成输入轨迹信息时对应的一些参数;在一种可行的实现方式中,输入轨迹参数可以包括以下至少之一:输入速率、输入压力和轨迹方向变化参数等。显示参数至少包括字符大小、字符线条粗细、字符形态或字符色彩。
在本申请实施例中,步骤202可以通过以下至少一个步骤来实现:
步骤202a、电子设备基于输入轨迹参数中的输入速率确定目标字词的第一显示参数。
其中,步骤202a可以通过以下方式来实现:
202a1、电子设备确定目标字词中每个字符对应的目标输入轨迹。
202a2、电子设备基于目标输入轨迹的目标触控点的输入轨迹参数确定输入速率,并基于输入速率确定目标字词的第一显示参数。
在本申请实施例中,电子设备可以基于目标触控点的数量、目标触控点的开始触控时间和结束触控时间来计算得到输入速率,之后基于输入速率和第一常数计算得到第一显示参数。其中,目标触控点可以指的是目标输入轨迹中包括的触控点;第一显示参数可以指的是字符大小。
在一种可行的实现方式中,可以先计算目标触控点的开始触控时间和结束触控时间之间的时间差值,之后用目标触控点的数量除以时间差值来得到输入速率。字符大小可以是将输入速率将第一常数相乘后得到的。
步骤202b、电子设备基于输入轨迹参数中的输入压力确定目标字词的第二显示参数。
其中,步骤202b可以通过以下方式来实现:
202b1、基于目标触控点的输入压力和目标触控点的数量,确定目标字词的第二显示参数。
在本申请实施例中,电子设备可以基于目标触控点的触控压力和目标触控点的数量计算输入压力,之后基于输入压力和第二常数确定第二显示参数;其中,第二显示参数可以指的是字符线条粗细。
在一种可行的实现方式中,可以将所有目标触控点的触控压力相加得到压力和值,并用压力和值除以目标触控点的数量得到输入压力;之后,将输入压力与第二常数相乘得到字符线条粗细。
步骤202c、电子设备基于输入轨迹参数中的轨迹方向变化参数确定目标字词的第三显示参数。
其中,步骤202c可以通过以下方式来实现:
202c1、从目标触控点中确定基础触控点,并基于目标触控点中首触控点的位置信息、尾触控点的位置信息和基础触控点的位置信息,确定目标字词的第三显示参数。
在本申请实施例总,电子设备可以基于目标触控点的位置信息,确定目标触控点中的每一触控点与,首触控点和尾触控点形成的连线之间的垂直距离,基于垂直距离从目标触控点中确定基础触控点,基于首触控点的位置信息、尾触控点的位置信息和基础触控点的位置信息确定目标角度,最后基于目标角度和第三常数确定第三显示参数;其中,第三显示参数可以指的是字符形态。
在一种可行的实现方式中,可以将目标触控点中每一触控点与,首触控点和尾触控点形成的连线之间的垂直距离进行比较,选择垂直距离最大的触控点为基础触控点并标记为触控点C;之后,根据首触控点A、尾触控点B和触控点C的位置确定夹角ACB的角度为目标角度;最后,将目标角度与第三常数相乘得到字符形态;其中,字符形态可以指的是字符圆滑度。
需要说明的是,步骤202可以是通过步骤202a、202b和202c中的任意一个或两个步骤来实现,也可以是共同通过步骤202a、202b和202c这三个步骤来实现的。
步骤203、电子设备基于输入轨迹参数和目标字词的对应属性确定目标字词的显示参数。
在本申请实施例中,步骤203可以通过以下步骤来实现:
步骤203a、基于输入轨迹参数、以及目标字词的情感属性和/或意思属性确定目标字词的第四显示参数。
其中,步骤203a可以通过以下方式来实现:
203a1、基于参考触控点的参数触控属性信息确定参考速度、参考压力和参考角度。
在本申请其他实施例中,基于参考触控点的数量、参考触控点的开始触控时间和结束触控时间,计算参考速度;基于参考触控点的触控压力和参考触控点的数量计算参考压力;基于参考触控点中每一触控点与参考触控点的首触控点和尾触控点形成的连线之间的垂直距离,确定基础参考触控点;基于参考触控点中的首触控点的位置信息、尾触控点的位置信息和基础参考触控点的位置信息,确定参考角度。
需要说明的是,参考速度、基础参考触控点和参考角度的确定方法可以参照本实施例中关于输入速率、基础触控点、目标夹角的确定方法,此处不再赘述。
203a2、基于参考速度、参考压力和参考角度生成第一向量,并基于第一向量将参考触控点进行分类得到第一分类结果。
其中,第一向量可以指的是物理向量V1。需要说明的是,对参考触控点进行分类的时候可以是使用分类器F1进行分类的;其中,分类器F1可以指的是任何可以实现对参考触控点进行分类的分类器;第一分类结果可以包括输出概率最高的类C1及其概率P1。
203a3、采用自然语言处理算法生成针对参考触控点的第二向量,并基于第二向量将参考触控点进行分类得到第二分类结果。
其中,第二向量可以指的是词语向量V2;需要说明的是,对参考触控点进行分类的时候可以是使用分类器F2进行分类的;其中,分类器F2可以指的是任何可以实现对参考触控点进行分类的分类器;第二分类结果可以包括概率最高的类C2及其概率P2。
203a4、基于第一分类结果、第二分类结果和每一分类对应的基础颜色信息,确定字符色彩。
在本申请实施例中,当C1等于C2时,最终分类为C1;当C1不等于C2,取a1*P1和a2*P2,较大的那一个对应的类为最终分类,a1,a2为常数权重。 K类中每一类对应一种字符颜色。那么,字符颜色就是最终分类对应点额颜色;需要说明的是,每一类对应一种字符颜色。
需要说明的是,情感属性可以是基于字词本身的属性确定的,也可以是基于交互内容中的上下文确定的。并且,本实施例中的情感属性可以是基于形成的第一向量V1确定的,意思属性可以是基于形成的第二向量V2确定的。
步骤204、电子设备至少根据显示参数在电子设备的各显示部件中确定目标显示部件,在目标显示部件上显示目标字词。
在本申请实施例中,在确定得到目标字词的显示参数后,可以从电子设备的各个显示部件中确定目标显示部件,之后将目标字词以该显示参数显示在目标显示部件上;其中,电子设备可以包括有多个显示部件;目标显示部件可以是根据实际的应用场景和显示参数从电子设备的各个显示部件中确定出来的;或者,目标显示部件可以是通过显示参数和各个显示部件的配置参数确定的;也就是说,可以根据显示参数与各个显示部件的配置参数的匹配度来确定目标显示部件;或者,可以根据电子设备是否存在与之交互的另一电子设备来从多个显示部件中确定目标显示部件。
步骤205、电子设备根据显示参数确定电子设备的发光组件的发光参数和/ 或音频模组的输出参数,以在目标显示部件上显示目标字词时,基于发光参数控制发光组件发光和/或基于输出参数控制音频模组输出对应内容。
在本申请实施例中,在实际显示目标字词的时候可以在发光组件上采用确定出来的发光参数显示表征目标字词含义的动画或者视频信息,和/或,在音频模组上采用确定出来的输出参数输出动画对应的声音。当然,发光组件上和音频模组上可以同时显示相应的信息,也可以是分别在其中一个上面显示相应的信息。
其中,在整个实施例中,步骤202和步骤203可以选择其中一个执行,也可以是两个步骤都执行,图2中是以步骤202和步骤203均执行来示出的。
需要说明的是,本实施例中与其他实施例中相同或相应步骤的解释,可以参照其他实施例中的描述,此处不再赘述。
本申请的实施例所提供的处理方法,可以直接根据操作体输入目标字词的过程比重的行为参数来确定目标字词显示出来的显示参数,而不需要用户手动去修改目标字词的显示参数,解决了相关技术中修改输入至电子设备的字词的字体样式无法体现输入者个性的问题,提高了智能性和书写效率。
基于前述实施例,本申请的实施例提供一种处理方法,参照图4所示,该方法包括以下步骤:
步骤301、电子设备获得操作体输入至电子设备的音频采集部件的语音输入信息,至少基于语音输入信息获得待输入的目标字词及该目标字词对应的语音输入参数。
步骤302、电子设备基于语音输入参数确定目标字词的显示参数。
其中,语音输入参数包括音量、语调、语气、音色、声纹中的至少之一。显示参数至少包括字符大小、字符线条粗细、字符形态或字符色彩。
在本申请实施例中,步骤302可以通过以下方式来实现:
分析语音输入参数得到音量,并基于音量与字符大小的对应关系和音量,确定目标字词的第一显示参数。其中,第一显示参数包括字符大小。
分析语音输入参数得到语调,并基于语调与字符大小的对应关系和语调,确定目标字词的第二显示参数。其中,第二显示参数包括字符线条粗细。
分析语音输入参数得到语气,并基于语气的平缓程度确定目标字词的第三显示参数。其中,第三显示参数包括字符形态。
步骤303、电子设备基于语音输入参数和目标字词的对应属性确定目标字词的显示参数。
在本申请实施例中,可以分析语音输入参数得到音色和声纹,之后基于音色、声纹和目标字词的情感属性和/或意思属性,确定目标字词的第四显示参数。其中,第四显示参数包括字符色彩。
步骤304、电子设备至少根据显示参数在电子设备的各显示部件中确定目标显示部件,在目标显示部件上显示目标字词。
步骤305、电子设备根据显示参数确定电子设备的发光组件的发光参数和/ 或音频模组的输出参数,以在目标显示部件上显示目标字词时,基于发光参数控制发光组件发光和/或基于输出参数控制音频模组输出对应内容。
其中,在整个实施例中,步骤302和步骤303可以选择其中一个执行,也可以是两个步骤都执行,图4中是以步骤302和步骤303均执行来示出的。
需要说明的是,本实施例与其他实施例中相同或相应步骤的说明可以参照其他实施例中的描述,此处不再赘述。
本申请的实施例所提供的处理方法,可以直接根据操作体输入目标字词的过程比重的行为参数来确定目标字词显示出来的显示参数,而不需要用户手动去修改目标字词的显示参数,解决了相关技术中修改输入至电子设备的字词的字体样式无法体现输入者个性的问题,提高了智能性和书写效率。
基于前述实施例,本申请的实施例提供一种处理方法,参照图5所示,该方法包括以下步骤:
步骤401、电子设备获得操作体作用于电子设备的姿态采集部件的姿态输入信息,至少基于姿态输入信息获得待输入的目标字词及该目标字词对应的姿态输入参数。
在本申请实施例中,姿态输入信息可以是用户使用自己的身体对电子设备进行手势操作或者身体的其他部位进行操作后输入至电子设备的信息。
步骤402、电子设备基于姿态输入参数确定目标字词的显示参数。
其中,姿态输入参数包括姿态变化速度、姿态变化幅度、姿态变化频率中的至少之一。显示参数至少包括字符大小、字符线条粗细、字符形态或字符色彩。
在本申请实施例中,步骤402可以通过以下方式来实现:
分析姿态输入参数得到姿态变化速,并基于姿态变化速确定目标字词的第一显示参数。其中,第一显示参数包括字符大小。
分析姿态输入参数得到姿态变化幅度,并基于姿态变化幅度与目标幅度的匹配度,确定目标字词的第二显示参数。其中,第二显示参数包括字符线条粗细。
分析姿态输入参数得到姿态变化频率,并基于姿态变化频率的变化趋势确定目标字词的第三显示参数。其中,第三显示参数包括字符形态。
步骤403、电子设备基于姿态输入参数和目标字词的对应属性确定目标字词的显示参数。
在本申请实施例中,可以分析姿态输入参数得到姿态变化时间,并基于姿态变化时间的变化趋势和目标字词的情感属性和/或意思属性确定目标字词的第四显示参数。其中,第四显示参数包括字符色彩。
步骤404、电子设备至少根据显示参数在电子设备的各显示部件中确定目标显示部件,在目标显示部件上显示目标字词。
步骤405、电子设备根据显示参数确定电子设备的发光组件的发光参数和/ 或音频模组的输出参数,以在目标显示部件上显示目标字词时,基于发光参数控制发光组件发光和/或基于输出参数控制音频模组输出对应内容。
其中,在整个实施例中,步骤402和步骤403可以选择其中一个执行,也可以是两个步骤都执行,图5中是以步骤402和步骤403均执行来示出的。
需要说明的是,本实施例与其他实施例中相同或相应步骤的说明可以参照其他实施例中的描述,此处不再赘述。
本申请的实施例所提供的处理方法,可以直接根据操作体输入目标字词的过程比重的行为参数来确定目标字词显示出来的显示参数,而不需要用户手动去修改目标字词的显示参数,解决了相关技术中修改输入至电子设备的字词的字体样式无法体现输入者个性的问题,提高了智能性和书写效率。
基于前述实施例,在本申请的其他实施例中,该方法还可以包括以下步骤:
A1、如果电子设备与第二电子设备处于连接状态,获得第二电子设备的显示部件的配置参数,基于配置参数和行为参数确定目标字词的显示参数;或,基于配置参数调整显示参数。
其中,第二电子设备可以指的是增强现实(Augmented Reality,AR)设备;此时,可以将第二电子设备的显示部件的相关的配置参数与操作体的行为参数结合,来得到显示参数;在一种可行的实现方式中,行为行为参数同样可以包括输入轨迹参数、语音输入参数和姿态输入参数;具体的确定过程可以参照相应实施例中的描述,此处不再赘述。
当然,也可以是调整显示参数以使得显示参数适应于第二电子设备的显示部件的相关的配置参数。
或,A2、如果电子设备处于特定运行模式,至少基于特定运行模式调整显示参数。
其中,特定运行模式可以指的是电子设备当前处于开启特定功能的模式;在一种可行的实现方式中,特定运行模式可以包括护眼模式;此时,可以将显示参数进行调整以适应该特定运行模式。
基于前述实施例,在本申请其他实施例中,如图6所示,以目标字词为 Happy为例进行说明:
1、Happy的轨迹保存到一个数组Points,Points成员保存数据如【X,Y, T,P,H】,【X,Y,T,P,g】,…,【X,Y,T,P,a】……;
2、计算a,g,d,…p,的LP;
3、选出LP>=N的,a,p。p的LP>=M,可出现2-3次。排列组合Hap,Hapy Happy,Happp,Hpay……;
4、匹配词语表结果,Happy,Hap;用户最终选择Happy(目标字词);
5、找出Happy中,H a p y的轨迹;
6、针对上面轨迹,算出每个字符的V,F,O,进而得出每个字符的字符大小,字符线条粗细,字符形态;
7、提取Happy的物理向量[V,F,O]V1和词语向量的N维word2vec向量V2,使用F1和F2分类,最后染色为红色;
8、利用字符大小,字符线条粗细字符形态,字符颜色(红色)渲染Happy。
基于前述实施例,在本申请其他实施例中,以目标字词为高兴为例进行说明:
1、高兴(Gaoxing)的轨迹保存到一个数组Points,Points成员保存数据如【X, Y,T,P,G】,【X,Y,T,P,f】…,【X,Y,T,P,a】……;
2、计算f,d,…a…g,的LP;
3、选出LP>=N的,a,o,x,i,n。排列组合Gaxi,Gaoxing……;
4、匹配词语表结果,高兴,高新,高薪,用户最终选择高兴(目标字词)。
5、找出高兴中,Gaoxing的轨迹;
6、针对上面轨迹,算出轨迹平均的V,F,O,进而得出词语的字符大小,字符线条粗细,字符形态。
7、提取高兴的物理向量[V,F,O]V1和词语向量的N维word2vec向量V2,使用F1和F2分类,最后染色为红色;
8、利用字符大小,字符线条粗细,字符形态,字符颜色(红色)渲染高兴。
基于前述实施例,本申请的实施例提供一种处理装置,该装置可以应用于图1、2、4~5对应的实施例提供的处理方法中,参照图7所示,该装置5可以包括:获取单元51和确定单元52,其中:
获取单元51,用于获得操作体作用于电子设备的输入部件的输入信息,输入信息包括输入目标字词的过程中操作体的行为参数;
确定单元52,用于至少基于行为参数确定目标字词的显示参数,以能够根据显示参数在目标显示部件上显示目标字词;
其中,显示参数至少能够表征操作体在输入目标字词时的特征信息。
在本申请其他实施例中,获取单元51还用于执行以下步骤:
获得操作体作用于电子设备的键盘或手写区域的输入轨迹信息,至少基于输入轨迹信息获得待输入的目标字词及该目标字词对应的输入轨迹参数;或,
获得操作体输入至电子设备的音频采集部件的语音输入信息,至少基于语音输入信息获得待输入的目标字词及该目标字词对应的语音输入参数;或,
获得操作体作用于电子设备的姿态采集部件的姿态输入信息,至少基于姿态输入信息获得待输入的目标字词及该目标字词对应的姿态输入参数。
在本申请其他实施例中,如果行为参数为输入轨迹参数,确定单元52还用于执行以下步骤:
基于输入轨迹参数确定目标字词的显示参数;或,
基于输入轨迹参数和目标字词的对应属性确定目标字词的显示参数。
在本申请其他实施例中,确定单元52还用于执行以下步骤:
基于输入轨迹参数中的输入速率确定目标字词的第一显示参数;
基于输入轨迹参数中的输入压力确定目标字词的第二显示参数;或,基于输入轨迹参数中的轨迹方向变化参数确定目标字词的第三显示参数;
且/或,确定单元52,还用于基于输入轨迹参数、以及目标字词的情感属性和/或意思属性确定目标字词的第四显示参数;
其中,显示参数至少包括字符大小、字符线条粗细、字符形态或字符色彩。
在本申请其他实施例中,第二分析单元43,还用于从第一试题文本的词中,提取词的类型与第一试题文本所属的科目信息匹配的词,以及词的类型与词所处的题的题型匹配的词,得到第一关键词;
其中,关键词包括第一关键词。
在本申请其他实施例中,确定单元52还用于执行以下步骤:
确定目标字词中每个字符对应的目标输入轨迹;
基于目标输入轨迹的目标触控点的输入轨迹参数确定输入速率,并基于输入速率确定目标字词的第一显示参数;
基于目标触控点的输入压力和目标触控点的数量,确定目标字词的第二显示参数;
从目标触控点中确定基础触控点,并基于目标触控点中首触控点的位置信息、尾触控点的位置信息和基础触控点的位置信息,确定目标字词的第三显示参数;其中,轨迹方向变化参数包括位置信息。
在本申请其他实施例中,如果行为参数为语音输入参数,确定单元52还用于执行以下步骤:
基于语音输入参数确定目标字词的显示参数;或,
基于语音输入参数和目标字词的对应属性确定目标字词的显示参数;
其中,语音输入参数包括音量、语调、语气、音色、声纹中的至少之一。
在本申请其他实施例中,如果行为参数为姿态输入参数,确定单元52还用于执行以下步骤:
基于姿态输入参数确定目标字词的显示参数;或,
基于姿态输入参数和目标字词的对应属性确定目标字词的显示参数;
其中,姿态输入参数包括姿态变化速度、姿态变化幅度、姿态变化频率中的至少之一。
在本申请其他实施例中,该装置还可以包括处理单元53,其中:
处理单元53,用于如果电子设备与第二电子设备处于连接状态,获得第二电子设备的显示部件的配置参数,基于配置参数和行为参数确定目标字词的显示参数,或,基于配置参数调整显示参数;
或,处理单元53,还用于如果电子设备处于特定运行模式,至少基于特定运行模式调整显示参数。
在本申请其他实施例中,确定单元52还用于执行以下步骤:
至少根据显示参数在电子设备的各显示部件中确定目标显示部件,在目标显示部件上显示目标字词;且/或,
根据显示参数确定电子设备的发光组件的发光参数和/或音频模组的输出参数,以在目标显示部件上显示目标字词时,基于发光参数控制发光组件发光和/或基于输出参数控制音频模组输出对应内容。
需要说明的是,本实施例中各个单元之间的交互过程可以参照图1、2、4~5 对应的实施例提供的处理方法中的实现过程,此处不再赘述。
本申请的实施例所提供的处理装置,可以直接根据操作体输入目标字词的过程比重的行为参数来确定目标字词显示出来的显示参数,而不需要用户手动去修改目标字词的显示参数,解决了相关技术中修改输入至电子设备的字词的字体样式无法体现输入者个性的问题,提高了智能性和书写效率。
基于前述实施例,本申请的实施例提供一种电子设备,该电子设备可以应用于图1、2、4~5对应的实施例提供的处理方法中,参照图8所示,该电子设备6可以包括:处理器61、存储器62和通信总线63,其中:
通信总线63用于实现处理器61和存储器62之间的通信连接;
处理器61用于执行存储器62中存储的处理程序,以实现以下步骤:
获得操作体作用于电子设备的输入部件的输入信息,输入信息包括输入目标字词的过程中操作体的行为参数;
至少基于行为参数确定目标字词的显示参数,以能够根据显示参数在目标显示部件上显示目标字词;
其中,显示参数至少能够表征操作体在输入目标字词时的特征信息。
在本申请的其他实施例中,处理器61用于执行存储器62中存储的获得操作体作用于电子设备的输入部件的输入信息,以实现以下步骤:
获得操作体作用于电子设备的键盘或手写区域的输入轨迹信息,至少基于输入轨迹信息获得待输入的目标字词及该目标字词对应的输入轨迹参数;或,
获得操作体输入至电子设备的音频采集部件的语音输入信息,至少基于语音输入信息获得待输入的目标字词及该目标字词对应的语音输入参数;或,
获得操作体作用于电子设备的姿态采集部件的姿态输入信息,至少基于姿态输入信息获得待输入的目标字词及该目标字词对应的姿态输入参数。
在本申请的其他实施例中,如果行为参数为输入轨迹参数,处理器61用于执行存储器62中存储的至少基于行为参数确定目标字词的显示参数,以实现以下步骤:
基于输入轨迹参数确定目标字词的显示参数;或,
基于输入轨迹参数和目标字词的对应属性确定目标字词的显示参数。
在本申请的其他实施例中,处理器61用于执行存储器62中存储的基于输入轨迹参数确定目标字词的显示参数,以实现以下步骤:
基于输入轨迹参数中的输入速率确定目标字词的第一显示参数;
基于输入轨迹参数中的输入压力确定目标字词的第二显示参数;或,基于输入轨迹参数中的轨迹方向变化参数确定目标字词的第三显示参数;
且/或,在本申请的其他实施例中,处理器61用于执行存储器62中存储的基于输入轨迹参数和目标字词的对应属性确定目标字词的显示参数,以实现以下步骤:
基于输入轨迹参数、以及目标字词的情感属性和/或意思属性确定目标字词的第四显示参数;
其中,显示参数至少包括字符大小、字符线条粗细、字符形态或字符色彩。
在本申请的其他实施例中,处理器61用于执行存储器62中存储的基于输入轨迹参数确定目标字词的显示参数,以实现以下步骤:
确定目标字词中每个字符对应的目标输入轨迹;
基于目标输入轨迹的目标触控点的输入轨迹参数确定输入速率,并基于输入速率确定目标字词的第一显示参数;
基于目标触控点的输入压力和目标触控点的数量,确定目标字词的第二显示参数;
从目标触控点中确定基础触控点,并基于目标触控点中首触控点的位置信息、尾触控点的位置信息和基础触控点的位置信息,确定目标字词的第三显示参数;其中,轨迹方向变化参数包括位置信息。
在本申请的其他实施例中,如果行为参数为语音输入参数,处理器61用于执行存储器62中存储的至少基于行为参数确定目标字词的显示参数,以实现以下步骤:
基于语音输入参数确定目标字词的显示参数;或,
基于语音输入参数和目标字词的对应属性确定目标字词的显示参数;
其中,语音输入参数包括音量、语调、语气、音色、声纹中的至少之一。
在本申请的其他实施例中,如果行为参数为姿态输入参数,处理器61用于执行存储器62中存储的至少基于行为参数确定目标字词的显示参数,以实现以下步骤:
基于姿态输入参数确定目标字词的显示参数;或,
基于姿态输入参数和目标字词的对应属性确定目标字词的显示参数;
其中,姿态输入参数包括姿态变化速度、姿态变化幅度、姿态变化频率中的至少之一。
在本申请的其他实施例中,处理器61用于执行存储器62中存储的处理程序,还可以实现以下步骤:
如果电子设备与第二电子设备处于连接状态,获得第二电子设备的显示部件的配置参数,基于配置参数和行为参数确定目标字词的显示参数,或,基于配置参数调整显示参数;
或,如果电子设备处于特定运行模式,至少基于特定运行模式调整显示参数。
在本申请的其他实施例中,处理器61用于执行存储器62中存储的根据显示参数在目标显示部件上显示目标字词,以实现以下步骤:
至少根据显示参数在电子设备的各显示部件中确定目标显示部件,在目标显示部件上显示目标字词;且/或,
根据显示参数确定电子设备的发光组件的发光参数和/或音频模组的输出参数,以在目标显示部件上显示目标字词时,基于发光参数控制发光组件发光和/或基于输出参数控制音频模组输出对应内容。
需要说明的是,本实施例中处理器所执行的步骤的具体实现过程,可以参照图1、2、4~5对应的实施例提供的处理方法中的实现过程,此处不再赘述。
本申请的实施例所提供的电子设备,可以直接根据操作体输入目标字词的过程比重的行为参数来确定目标字词显示出来的显示参数,而不需要用户手动去修改目标字词的显示参数,解决了相关技术中修改输入至电子设备的字词的字体样式无法体现输入者个性的问题,提高了智能性和书写效率。
基于前述实施例,本申请的实施例提供一种计算机可读存储介质,该计算机可读存储介质存储有一个或者多个程序,该一个或者多个程序可被一个或者多个处理器执行,以实现图1、2、4~5对应的实施例提供的处理方法中的步骤。
需要说明的是,本实施例中处理器所执行的步骤的具体实现过程,可以参照图1、2、4~5对应的实施例提供的处理方法中的实现过程,此处不再赘述。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。
Claims (10)
1.一种处理方法,包括:
获得操作体作用于电子设备的输入部件的输入信息,所述输入信息包括输入目标字词的过程中所述操作体的行为参数;
至少基于所述行为参数确定所述目标字词的显示参数,以能够根据所述显示参数在目标显示部件上显示所述目标字词;
其中,所述显示参数至少能够表征所述操作体在输入所述目标字词时的特征信息。
2.根据权利要求1所述的方法,所述获得操作体作用于电子设备的输入部件的输入信息,包括:
获得操作体作用于电子设备的键盘或手写区域的输入轨迹信息,至少基于所述输入轨迹信息获得待输入的目标字词及该目标字词对应的输入轨迹参数;或,
获得操作体输入至电子设备的音频采集部件的语音输入信息,至少基于所述语音输入信息获得待输入的目标字词及该目标字词对应的语音输入参数;或,
获得操作体作用于电子设备的姿态采集部件的姿态输入信息,至少基于所述姿态输入信息获得待输入的目标字词及该目标字词对应的姿态输入参数。
3.根据权利要求1或2所述的方法,其中,如果所述行为参数为输入轨迹参数,所述至少基于所述行为参数确定所述目标字词的显示参数,包括:
基于所述输入轨迹参数确定所述目标字词的显示参数;或,
基于所述输入轨迹参数和所述目标字词的对应属性确定所述目标字词的显示参数。
4.根据权利要求3所述的方法,其中,
所述基于所述输入轨迹参数确定所述目标字词的显示参数,包括以下至少之一:
基于所述输入轨迹参数中的输入速率确定所述目标字词的第一显示参数;
基于所述输入轨迹参数中的输入压力确定所述目标字词的第二显示参数;或,
基于所述输入轨迹参数中的轨迹方向变化参数确定所述目标字词的第三显示参数;
且/或,
所述基于所述输入轨迹参数和所述目标字词的对应属性确定所述目标字词的显示参数,包括:
基于所述输入轨迹参数、以及所述目标字词的情感属性和/或意思属性确定所述目标字词的第四显示参数;
其中,所述显示参数至少包括字符大小、字符线条粗细、字符形态或字符色彩。
5.根据权利要求4所述的方法,其中,所述基于所述输入轨迹参数确定所述目标字词的显示参数,还包括以下至少之一:
确定所述目标字词中每个字符对应的目标输入轨迹;
基于所述目标输入轨迹的目标触控点的输入轨迹参数确定所述输入速率,并基于所述输入速率确定所述目标字词的第一显示参数;
基于所述目标触控点的输入压力和所述目标触控点的数量,确定所述目标字词的第二显示参数;
从所述目标触控点中确定基础触控点,并基于所述目标触控点中首触控点的位置信息、尾触控点的位置信息和所述基础触控点的位置信息,确定所述目标字词的所述第三显示参数;其中,所述轨迹方向变化参数包括位置信息。
6.根据权利要求1或2所述的方法,其中,如果所述行为参数为语音输入参数,所述至少基于所述行为参数确定所述目标字词的显示参数,包括:
基于所述语音输入参数确定所述目标字词的显示参数;或,
基于所述语音输入参数和所述目标字词的对应属性确定所述目标字词的显示参数;
其中,所述语音输入参数包括音量、语调、语气、音色、声纹中的至少之一。
7.根据权利要求1或2所述的方法,其中,如果所述行为参数为姿态输入参数,所述至少基于所述行为参数确定所述目标字词的显示参数,包括:
基于所述姿态输入参数确定所述目标字词的显示参数;或,
基于所述姿态输入参数和所述目标字词的对应属性确定所述目标字词的显示参数;
其中,所述姿态输入参数包括姿态变化速度、姿态变化幅度、姿态变化频率中的至少之一。
8.根据权利要求1或2所述的方法,还包括:
如果电子设备与第二电子设备处于连接状态,获得所述第二电子设备的显示部件的配置参数,基于所述配置参数和所述行为参数确定所述目标字词的显示参数,或,基于所述配置参数调整所述显示参数;或,
如果电子设备处于特定运行模式,至少基于所述特定运行模式调整所述显示参数。
9.根据权利要求1或2所述的方法,其中,所述根据所述显示参数在目标显示部件上显示所述目标字词,包括:
至少根据所述显示参数在电子设备的各显示部件中确定目标显示部件,在所述目标显示部件上显示所述目标字词;且/或,
根据所述显示参数确定电子设备的发光组件的发光参数和/或音频模组的输出参数,以在所述目标显示部件上显示所述目标字词时,基于所述发光参数控制所述发光组件发光和/或基于所述输出参数控制所述音频模组输出对应内容。
10.一种处理装置,包括:
获取单元,用于获得操作体作用于电子设备的输入部件的输入信息,所述输入信息包括输入目标字词的过程中所述操作体的行为参数;
确定单元,用于至少基于所述行为参数确定所述目标字词的显示参数,以能够根据所述显示参数在目标显示部件上显示所述目标字词;
其中,所述显示参数至少能够表征所述操作体在输入所述目标字词时的特征信息。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110960271.1A CN113760210A (zh) | 2021-08-20 | 2021-08-20 | 一种处理方法和装置 |
US17/693,413 US20230055057A1 (en) | 2021-08-20 | 2022-03-14 | Processing method and device |
GB2205403.5A GB2610013A (en) | 2021-08-20 | 2022-04-12 | Processing method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110960271.1A CN113760210A (zh) | 2021-08-20 | 2021-08-20 | 一种处理方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113760210A true CN113760210A (zh) | 2021-12-07 |
Family
ID=78790641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110960271.1A Pending CN113760210A (zh) | 2021-08-20 | 2021-08-20 | 一种处理方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230055057A1 (zh) |
CN (1) | CN113760210A (zh) |
GB (1) | GB2610013A (zh) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101193362B1 (ko) * | 2012-04-13 | 2012-10-19 | 최병기 | 문자열을 발음 단위로 분할하는 방법, 이를 이용하는 문자열의 어조 표현 방법 및 문자열의 어조를 표현하는 동영상 데이터가 저장된 저장매체 |
WO2015059787A1 (ja) * | 2013-10-23 | 2015-04-30 | 株式会社 東芝 | 電子機器、方法及びプログラム |
JP6301736B2 (ja) * | 2014-05-28 | 2018-03-28 | 株式会社東芝 | 電子機器及び方法 |
US9652669B2 (en) * | 2014-09-16 | 2017-05-16 | Lenovo (Singapore) Pte. Ltd. | Reflecting handwriting attributes in typographic characters |
US9824266B2 (en) * | 2014-11-28 | 2017-11-21 | Samsung Electronics Co., Ltd. | Handwriting input apparatus and control method thereof |
US20160321238A1 (en) * | 2015-04-29 | 2016-11-03 | Kabushiki Kaisha Toshiba | Electronic device, method and storage medium |
US10043519B2 (en) * | 2016-09-02 | 2018-08-07 | Tim Schlippe | Generation of text from an audio speech signal |
CN108764010A (zh) * | 2018-03-23 | 2018-11-06 | 姜涵予 | 情绪状态确定方法及装置 |
US11301672B2 (en) * | 2019-04-16 | 2022-04-12 | The Board Of Trustees Of The University Of Alabama | Radar-based methods and apparatus for communication and interpretation of sign languages |
-
2021
- 2021-08-20 CN CN202110960271.1A patent/CN113760210A/zh active Pending
-
2022
- 2022-03-14 US US17/693,413 patent/US20230055057A1/en active Pending
- 2022-04-12 GB GB2205403.5A patent/GB2610013A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
GB202205403D0 (en) | 2022-05-25 |
GB2610013A (en) | 2023-02-22 |
US20230055057A1 (en) | 2023-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230316643A1 (en) | Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal | |
CN110288077B (zh) | 一种基于人工智能的合成说话表情的方法和相关装置 | |
CN108369484B (zh) | 引导手写图输入的系统和方法 | |
Kara et al. | Hierarchical parsing and recognition of hand-sketched diagrams | |
US9547471B2 (en) | Generating computer responses to social conversational inputs | |
CN114578969B (zh) | 用于人机交互的方法、装置、设备和介质 | |
JPH0375860A (ja) | パーソナライズド端末 | |
US20180300542A1 (en) | Drawing emojis for insertion into electronic text-based messages | |
US9711117B2 (en) | Method and apparatus for recognising music symbols | |
KR101457456B1 (ko) | 개인 폰트 생성 장치 및 방법 | |
CN109801349B (zh) | 一种声音驱动的三维动画角色实时表情生成方法和系统 | |
JP2001272995A (ja) | 音声認識方法及び装置 | |
Gillian | Gesture recognition for musician computer interaction | |
US11928418B2 (en) | Text style and emphasis suggestions | |
Ryumin et al. | Towards automatic recognition of sign language gestures using kinect 2.0 | |
CN113238654A (zh) | 基于多模态的反应式响应生成 | |
CN114173188B (zh) | 视频生成方法、电子设备、存储介质和数字人服务器 | |
CN113923521B (zh) | 一种视频的脚本化方法 | |
Abid et al. | Dynamic sign language and voice recognition for smart home interactive application | |
CN117152308B (zh) | 一种虚拟人动作表情优化方法与系统 | |
US7979795B2 (en) | System and method for inputting syllables of a phonetic script into a computer | |
CN113760210A (zh) | 一种处理方法和装置 | |
CN116665275A (zh) | 基于文本到汉语拼音的面部表情合成与交互控制方法 | |
CN115588227A (zh) | 情绪识别方法、装置、电子设备和存储介质 | |
Vijayalakshmi et al. | Literature survey on emotion recognition for social signal processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |