CN111522437B - 一种基于眼动数据获取产品原型方法和系统 - Google Patents
一种基于眼动数据获取产品原型方法和系统 Download PDFInfo
- Publication number
- CN111522437B CN111522437B CN202010157004.6A CN202010157004A CN111522437B CN 111522437 B CN111522437 B CN 111522437B CN 202010157004 A CN202010157004 A CN 202010157004A CN 111522437 B CN111522437 B CN 111522437B
- Authority
- CN
- China
- Prior art keywords
- product
- prototype
- sample
- obtaining
- eye movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000004424 eye movement Effects 0.000 title claims abstract description 35
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 210000001508 eye Anatomy 0.000 claims abstract description 16
- 238000003064 k means clustering Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 239000012535 impurity Substances 0.000 claims description 3
- 239000007787 solid Substances 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 9
- 230000008569 process Effects 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 4
- 238000004458 analytical method Methods 0.000 description 13
- 210000005252 bulbus oculi Anatomy 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 238000012360 testing method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 210000001015 abdomen Anatomy 0.000 description 8
- 230000036541 health Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 239000003086 colorant Substances 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 208000030533 eye disease Diseases 0.000 description 4
- 230000004418 eye rotation Effects 0.000 description 4
- 241001339245 Callirhoe digitata Species 0.000 description 3
- 230000006996 mental state Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 235000002259 Callirhoe involucrata Nutrition 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 201000009487 Amblyopia Diseases 0.000 description 1
- 208000006992 Color Vision Defects Diseases 0.000 description 1
- 201000000761 achromatopsia Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 235000013532 brandy Nutrition 0.000 description 1
- 235000019993 champagne Nutrition 0.000 description 1
- 201000007254 color blindness Diseases 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000004042 decolorization Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 235000020095 red wine Nutrition 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明披露了一种基于眼动数据获取产品原型方法和系统,方法包括如下步骤:获取目标产品正侧面视图,用于建立底层样本库;对目标产品根据结构或功能特征划分多个检测区域;对人眼眼动进行检测,获取对目标产品的注视区域的注视时长;通过注视时长获取目标对产品不同检测区域的兴趣权重;采用K‑均值聚类获取目标产品的原型,本发明采用计算机和图像采集技术对人眼的观测数据加工处理,用于辅助设计师对个人兴趣轮廓类型的把握,从而提高产品外观的设计效果。
Description
技术领域
本发明涉及一种基于眼动数据获取产品原型方法和系统,特别涉及一种基于眼动数据获取产品原型方法和系统。
技术背景
随着社会的发展,人们对艺术欣赏的水平逐渐提高,对于高脚杯等需要有较高艺术的轮廓设计,现有技术中比如高脚杯等产品的轮廓设计通常是基于设计师自身的设计水平所决定的,而不同身份地位的人对曲线轮廓的艺术兴趣不同,并且不同年龄段的人对产品轮廓的偏好不同,设计师通常需要进行深度的沟通,基于表达能力的差别,设计师的沟通成本较高,并且对设计的满意度往往需要设计师自身的丰富的经验。现有的计算机辅助设计方案生成系统存在以下不足:由于产品基数量过大且产品造型方案设计的手法不同,造成曲线造型和部件造型各不相同;目前对高脚杯的曲线造型研究比较少,取点较难,还没有达成统一要求。
发明内容
本发明其中一个目的在于提供一种基于眼动数据获取产品原型方法和系统,所述系统和方法对图片进行预处理,其中预处理的方法包括对图像增强对比度、图像背景处理、轮廓花纹处理、颜色处理、从而可使得用于识别的图像更加规范,避免花纹、颜色等非相关因素对人眼的影响。
本发明其中一个目的在于提供一种基于眼动数据获取产品原型方法和系统,所述系统和方法对轮廓进行分层分析处理,通过获取人眼对轮廓的兴趣点,分析获取不同分层的人眼的兴趣情况,便于分析测试人员主观兴趣点集中区域以及可能的兴趣产品类型。
本发明其中一个目的在于提供一种基于眼动数据获取产品原型方法和系统,所述系统和方法通过拓扑关系分析,可对异类轮廓进行原型分析和还原。
为了实现至少一个上述发明目的,本发进一步提供一种基于眼动兴趣数据获取产品原型方法,包括如下步骤:
获取目标产品正侧面视图,用于建立底层样本库;
对目标产品根据结构或功能特征划分多个检测区域;
对人眼眼动进行检测,获取对目标产品的注视区域的注视时长;
通过注视时长获取目标对产品不同检测区域的兴趣权重;
采用K-均值聚类获取目标产品的产品原型。
根据本发明另一个较佳实施例,对目标产品边缘轮廓进行识别,以获取具有特征点:切点、角点、拐点、端点的贝塞尔曲线、并获取所述特征点的坐标值。
根据本发明另一个较佳实施例,根据人眼注视时长获取不同检测区域的兴趣权重,并将兴趣权重和对应的特征点坐标值相乘,对不同检测区域进行聚类以获取类别样本集,根据类别样本集数目作为目标条件进行K-均值聚类得到产品原型。
根据本发明另一个较佳实施例,在获取目标产品原型步骤中,通过K-均值聚类对每个类别样本集中的样本进行分类,计算每一个类别样本集的坐标平均值,以获取每一类别样本集的质心,计算每一样本点和质心距离,获取最接近质心的原型样本点,计算所述原型样本点的坐标值。
根据本发明另一个较佳实施例,对产品原型包括:以产品功能和/或结构特征预建立产品原型体系,分析原型样本的功能特征和结构特征,并将原型样本归类。
根据本发明另一个较佳实施例,获取原型样本方法步骤中,包括通过几何图形的拓扑关系对异类产品图像进行分析,以获取异类产品的原型特征。
根据本发明另一个较佳实施例,建立底层样本库的步骤中,包括:对产品建立具有x,y,z轴的三维笛卡尔坐标系,获取产品正侧面视图时,根据产品类型限定产品外轮廓其中一个维度的变量。
根据本发明另一个较佳实施例,建立底层样本库的步骤中还包括样本预处理步骤:
增强图像对比度;
虚化背景或设置纯色背景;
设置相同的图像大小和分辨率;
去除图像中非轮廓结构的杂质图案。
根据本发明一个较佳实施例,建立底层样本库步骤中还包括对图像中非黑白颜色进行去色处理,以避免杂质色彩对人眼的干扰。
根据本发明另一个较佳实施例,获取贝塞尔曲线步骤中,还包括角点筛选步骤:
检测和获取特征点数值,其中所述特征点包括真角点和假角点;
计算特征点和与特征点相邻的点的曲率值,若特征点的曲率值为极大值,则将该特征点分配为候选角点;
设置一曲率阈值,通过曲率阈值筛选出真角点,其中所述曲率阈值根据产品类型动态设置。
根据本发明另一个较佳实施例,在K-均值聚类步骤中,进一步包括计算合并样本的总方差,其中根据不同样本总方差从小到大优先合并。
为了实现本发明上述至少一个发明目的,本发明进一步提供一种产品兴趣原型获取方法,包括如下步骤:
筛选测试人员,记录测试人员的健康信息和性格信息,其中所述健康信息包括:年龄、性别、有无眼部疾病史、身体状态;
提供显示器,所述显示器用于显示产品轮廓信息;
安装眼动仪,用于探测测试人员的眼球运动;
记录测试人员眼球的第一注视点、注视区域、眼球移动线路,注视时长;
根据注视区域的注视时长,构建兴趣点分布图;
根据测试人员的健康特征和性格特征以及兴趣点分布图分析测试人员对产品类型的喜好。
根据本发明另一个较佳实施例,对产品轮廓进行区域划分,根据兴趣点分布图获取测试人员的兴趣区域。
根据本发明另一个较佳实施例,根据第一注视点位置和眼球移动线路获取兴趣线路。
根据本发明另一个较佳实施例,显示产品轮廓图像的步骤中,包括以下步骤:
设定一观测阈值时长,所述观测阈值时长为3-10分钟;
设定单一产品图像的显示时长和相邻产品图像的间隔时长,其中单一产品的显示时长为3-8秒,间隔时长为1-4秒;
根据本发明另一个较佳实施例,显示产品轮廓图像的步骤中,测试者眼球距离显示器70-100厘米。
根据本发明另一个较佳实施例,在显示产品轮廓图像的步骤中,产品轮廓图像数目为40-100张。
为了实现至少一个上述发明目的,本发明进一步提高一种基于眼动兴趣数据获取产品原型系统,包括:
处理器,所述处理器包括至少一分析模块和一识别模块;
显示器,所述显示器通信连接所述处理器;
眼动仪,所述眼动仪通信连接所述处理器,所述眼动仪用于获取测试人员眼球运动信息,并将眼球运动信息传输于所述处理器;
所述识别模块用于识别产品图像的轮廓、曲线信息;
所述分析模块结合产品轮廓信息和眼动信息获取测试人员的兴趣区域和兴趣产品类型。
根据本发明另一较佳实施例,所述分析模块还用于分析测试人员的健康信息和性格信息对产品轮廓区域和产品类型喜好的影响。
附图说明
图1显示的是本发明一个较佳实施例中高脚杯的正侧面示意图;
图2显示的是本发明一个较佳实施例中对高脚杯检测区域划分示意图;
图3显示的是本发明一个较佳实施例中对高脚杯不同检测区域兴趣权重分布示意图;
图4显示的是本发明一个较佳实施例中高脚杯人眼兴趣点分布热图;
图5显示的是本发明一个较佳实施例中高脚杯原型观图;
图6显示的是本发明一个较佳实施例中高脚杯异型杯对应的原型杯示意图;
图7显示的是本发明一个较佳实施例中高脚杯的图像处理效果示意图;
图8显示的是本发明一个较佳实施例基于眼动兴趣数据获取产品原型方法流程示图;
图9显示的是本发明一个较佳实施例产品兴趣原型获取方法流程图;
图10显示的是本发明一个较佳实施例观测场景示意图。
其中
1-显示器,2-显示页面,3-眼动仪,4-测试人员,5-处理器。
具体实施方式
以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。
本领域技术人员应理解的是,在本发明的揭露中,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系是基于附图所示的方位或位置关系,其仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此上述术语不能理解为对本发明的限制。
可以理解的是,术语“一”应理解为“至少一”或“一个或多个”,即在一个实施例中,一个元件的数量可以为一个,而在另外的实施例中,该元件的数量可以为多个,术语“一”不能理解为对数量的限制。
请参考图10,基于眼动兴趣数据获取产品原型系统包括一处理器5,一显示器1和眼动仪3,其中所述显示器通信连接所述眼动仪3,所述眼动仪3用于获取测试人员4的眼球转动信息,并将眼球转动信息发送至所述处理器5,所述显示器1通信连接所述处理器5,所述显示器1用于显示产品的轮廓、曲线信息。
值得一提的是,所述处理器5包括一识别模块,所述识别模块用于识别产品图像中的轮廓信息和曲线信息;在一较佳实施方式中,所述识别模块识别图片中的每一像素并建立产品图象的坐标系,因此,每一张产品图像中的像素都具有对应坐标值,其中坐标系的起始位置可以使根据图像的分辨率和在显示器1的位置而固定设置。所述处理器5接收产品图像信息,其中产品图像信息的来源包括但不仅限于互联网下载,用户拍摄上传,现场设计等,可以理解的是产品图像信息的获取方式不是本发明的限制。
进一步的,所述处理器5包括第一分析模块和第二分析模块,所述第一分析模块分析测试人员4对产品的轮廓、曲线和区域的兴趣点,并构建每一个测试人员4对每一产品图像的兴趣分布图,所述第一分析模块还进一步分析测试人员4的第一注视点的位置信息以及眼球转动线路,并将第一注视点的位置信息以及眼球转动线路保存,用于判断测试人员4兴趣点或兴趣线路。
进一步地,如图5-6所示,所述第一分析模块还用于分析产品的结构特征和功能特征,并且对于非规则的异类产品,可通过几何的拓扑关系分析产品的原型。
值得一提的是,所述处理器5还保存测试人员4的健康特征和性格特征,其中所述健康特征包括:年龄、性别、有无眼部疾病史、身体状态等,性格特征可通过对测试人员4进行性格答题测试获取,所述第二分析模块根据获取测试人员4对每一产品的兴趣分布图,结合测试人员4的健康信息和性格信息等,进一步分析产品类型和测试人员4自身因素的影响。因此,通过该系统可以进一步提高设计人员对用户的设计要求和兴趣点、兴趣图形和轮廓的把握,提高设计的效果。
需要说明的是,所述眼动仪3被安装于显示器1,通过摄像头和红外传感器探测测试人员4的眼球信息,其中所述眼球信息包括眼球转动信息,眼球转动路径,眼球注视时间、眼跳距离、瞳孔大小等。所述显示器1放置于测试人员4的正前方,并且和测试人员4的眼球保持一定的距离,使得测试人员4可以正面以合理的视矩观测产品图像信息。
本发明需要进行眼动测试,测试之前需要筛选测试人员4,其中根据测试人员4的身体状况,筛选出无色盲、弱视等眼部疾病的人员。根据测试者精神状态进一步筛选出精神状态较佳的测试人员4,以避免测试者自身因素对测试结果的影响,在一较佳实施方式中,眼动实验包括如下步骤:
筛选测试人员4:男女被试比例均等,视力正常无眼部疾病且精神状态良好。
准备实验设备:准备眼动仪3和眼动数据分析软件,将眼动仪3安装于显示器1
并将显示器1放置于测试人员4正前方。
实验材料和方法:选择产品图像样本数量,设定单个产品图像样本的显示时间和相邻两样本之间的间隔时间。
实验过程:告知参与者具体测试内容及时间,并清楚地告知参与者需要观察的产品图像信息。实验结果:通过眼动仪3获取数据图,通过眼动数据分析软件分析热点图、注视点及轨迹图等等,热区图可用于查找最有可能吸引用户注意力的视觉对象,比较每个视觉对象吸引用户注意力的强弱关系,还可以参考多个用户数据同时显示的数据结果。
实验数据处理:根据热点图将产品部件兴趣区划分出来,并获取注视时长。
为了考虑人可能存在视觉疲劳,本发明设置产品图像数据为30-100张,每个产品图像在显示器1上的显示时间为3-8秒,相邻产品图像之间的显示间隔时间为1-5秒,显示间隔时间用于消除上一张图像对测试人员4的影响,其中测试人员4的眼球和显示器1之间的距离为60-120厘米,优选为90厘米。
请参考图1-10,本发明以高脚杯为例,说明本发明技术内容和技术效果:
根据高脚杯的功能和结构将高脚杯分成多个检测区域,如图1-2检测区域包括:
杯口:其中杯口属于杯肚,根据高脚杯的形状特征,杯口大小与杯肚形状相互影响;
杯肚:其中杯肚侧面轮廓形状有斜线、弧线、曲线等特征曲线,是高脚杯主要的轮廓结构;
杯柄:所述杯柄连接底座和杯肚,杯柄的长短将由杯肚的形态结构决定;
底座:用于支持高脚杯,侧面轮廓曲线变化不大。
识别高脚杯的轮廓步骤包括:
获取高脚杯图像信息,所述图像信息包括高脚杯像素以及每一像素对应的坐标信息。
对每一检测区域进行层次聚类,以对高脚杯样本进行产品原型;
所述识别模块识别高脚杯图像的外轮廓,并将外轮廓转化为贝塞尔曲线,寻找贝塞尔曲线中的切点、角点、拐点、端点等特征点的坐标值;
获取每一检测区域的人眼注视时长,根据人眼注视时长获取不同检测区域的兴趣分布;
根据分类后的产品和检测的兴趣数据分析测试用户的兴趣产品类型。
表1
如上表1为不同样本不同区域的注视时长。
表2为不同检测区域注视时长权重:
部件 | 杯口 | 杯肚 | 杯柄 | 底座 | 总计 |
总注视时长 | 659673 | 2950662 | 2142978 | 626497 | 6379810 |
权重 | 10.34% | 46.25% | 33.59% | 9.82% | 100% |
表2
需要说明的是,根据眼动分析软件Tobii EyeX 2.1.1获取的兴趣分布热度图,如图4所示,颜色越深部分代表着高脚杯兴趣点和兴趣时长越多区域,可以看出杯肚部分是整个高脚杯兴趣分布最多区域。
进一步地,本发明采用层次聚类法对高脚杯进行聚类,其中层次聚类采用的是K-均值聚类,方法包括如下步骤:在分类过程中首先将高脚杯样本划分为K个原始聚类,然后计算从某个样本点到每个类别质心的距离,将对象分配给最近的类别,计算象的聚类质心和失去该对象的聚类质心是不同的,重复进行此步骤直到所有对象都不会分配到其他类别后终止运算。
本发明中示例性地将高脚杯的外轮廓结构形态根据高脚杯的功能作为K值聚类的原始聚类,比如可将高脚杯可分为红酒杯、甜酒杯、白兰地酒杯、香槟酒杯等,计算所有高脚杯样本中每一外轮廓像素点的坐标值,并将坐标值和各分类原型高脚杯进行对比,计算最接近类别的高脚杯,同时将该高脚杯进行分类,需要说明的是,本发明采用计算每一高脚杯样本和分类原型坐标的方差,将高脚杯分配给最接近类别的原型,换句话说,在对高脚杯进行分类的过程中,预建立以功能和结构为特征的类别原型库,类别原型库中保存包括原型高脚杯外轮廓的坐标数据,当获取需要测试的高脚杯样本时,计算高脚杯样本坐标值,并且计算样本高脚杯和原型坐标之间的方差,并将高脚杯样本归类于总方差最小的原型,需要说明的是,由于每一类别高脚杯的形状设计存在一定的差别,因此,在本发明一个较佳实施方式中,对同一类多个高脚杯计算坐标的平均值,作为标准原型坐标数据。
进一步地,为了获取合适数目的类别特征,本发明根据不同检测区域的注视时长作为权重,和每一高脚杯样本的坐标相乘,根据类别数目以K-均值聚类方法将高脚杯样本分类。
值得一提的是,在高脚杯样本分类过程中需要采集高脚杯的轮廓曲线和特征点,其中所述特征点包括:角点、端点、拐点、切点、,其中所述角点在实际的操作中可能出现假角点,因此需要设定和调整阈值以获取真角点,方法如下:
检测和获取高脚杯样本特征点数值,其中所述特征点包括真角点和假角点;
计算特征点和与特征点相邻的点的曲率值,若特征点的曲率值为极大值,则将该特征点分配为候选角点;
设置一曲率阈值,通过曲率阈值筛选出真角点,其中所述曲率阈值根据产品类型动态设置。
需要说明的是,所述特征点曲率极大值可能因为产品结构不同存在假角点,因此,需要人工设置和调整该曲率的阈值,也就是说,根据产品的结构不同动态调整阈值大小。
在一较佳实施例中,所述轮廓识别方法还包括对高脚杯样本图像预处理步骤,所述图像预处理步骤采用包括但不仅限于photoshop和ImageLab等图像处理软件,具体地,图像处理步骤包括:
增强图像对比度;
图像背景处理;
调整图像大小和分辨率;
图像去色处理;
异类图像处理。
其中增强图像对比度可以提高高脚杯的图像识别效率,具体地,如图7所示,采用反向、高斯模糊,和降噪等方式对图片预处理,以便于识别高脚杯的轮廓和曲线,需要说明的是,反向、高斯模糊和降噪等图片处理操作可通过现有图片软件处理,本发明不在赘述。
为了避免非相关图纹和颜色对测试者的影响,本发明进一步对高脚杯样本图像进行去色处理,将高脚杯样本图像中的背景颜色置换成黑白底色或纯色,并且将高脚杯样本图像中的非轮廓结构的条纹去除,比如在一些原始图片中,高脚杯可能存在一些装饰花纹,以及轮廓不清晰、透视角过大等问题,为了避免该装饰花纹对测试人员4的影响,通过photoshop等图像处理软件对图像的背景、颜色花纹进行处理。
分辨率作为图像识别的关键因素,本发明进一步对高脚杯样本图像的分辨率进一步处理,包括如下步骤:
调整高脚杯样本图像大小,使得高脚杯样本图像之间保持相同的大小和分辨率,进一步地,为了更好地识别高脚杯中的轮廓曲线以及特征点,建立有关产品的三维(x,y,z)笛卡尔坐标系,将产品放置于三维笛卡尔坐标系中,根据产品的类型限定高脚杯外轮廓曲线某一维度的变量,以高脚杯举例来说,为了获取高脚杯正侧面视图,限定Z轴为统一数据(如100mm),使所有实验的高脚杯等比例缩放为相同规格。
图像预处理的步骤还包括对异类高脚杯的图像处理,其中异类高脚杯通常是根据对称高脚杯进行拓扑变换,根据拓扑变换获取最接近的原型高脚杯。
进一步的,本发明可通过计算机控制筛获得真角点,采用启发式算法获取最优解或次优解,并且采用CANNY模型计算轮廓边缘特征点。CANNY模型为现有算法,本发明不再赘述。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理单元(CPU)执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域的技术人员应理解,上述描述及附图中所示的本发明的实施例只作为举例而并不限制本发明,本发明的目的已经完整并有效地实现,本发明的功能及结构原理已在实施例中展示和说明,在没有背离所述原理下,本发明的实施方式可以有任何变形或修改。
Claims (7)
1.一种基于眼动兴趣数据获取产品原型方法,其特征在于,包括如下步骤:
获取目标产品正侧面视图,用于建立底层样本库;
对目标产品根据结构或功能特征划分多个检测区域;
对人眼眼动进行检测,获取对目标产品的多个检测区域的注视时长;
通过注视时长获取对目标产品不同检测区域的兴趣权重;
采用K-均值聚类获取目标产品原型;
其中对目标产品边缘轮廓进行识别,以获取具有特征点:切点、角点、拐点、端点的贝塞尔曲线、并获取所述特征点的坐标值,根据人眼注视时长获取不同检测区域的兴趣权重,并将兴趣权重和对应的特征点坐标值相乘,当获取需要测试的产品样本时,计算产品样本坐标值,并且计算产品样本和原型样本坐标之间的方差,并将产品样本归类于总方差最小的原型,对不同检测区域进行聚类以获取类别样本集,根据类别样本集数目作为目标条件进行K-均值聚类得到产品原型。
2.根据权利要求1所述的一种基于眼动兴趣数据获取产品原型方法,其特征在于,在获取目标产品原型步骤中,通过K-均值聚类对每个类别样本集中的样本进行分类,计算每一个类别样本集的坐标平均值,以获取每一类别样本集的质心,计算每一样本点和质心距离,获取最接近质心的原型样本点,计算所述原型样本点的坐标值。
3.根据权利要求1所述的一种基于眼动兴趣数据获取产品原型方法,其特征在于,对产品原型包括:以产品功能和/或结构特征预建立产品原型体系,分析原型样本的功能特征和结构特征,并将原型样本归类。
4.根据权利要求2所述的一种基于眼动兴趣数据获取产品原型方法,其特征在于,获取原型样本方法步骤中,包括通过几何图形的拓扑关系对异类产品图像进行分析,以获取异类产品的原型特征。
5.根据权利要求1所述的一种基于眼动兴趣数据获取产品原型方法,其特征在于,建立底层样本库的步骤中还包括样本预处理步骤:
增强图像对比度;
虚化背景或设置纯色背景;
设置相同的图像大小和分辨率;
去除图像中非轮廓结构的杂质图案。
6.根据权利要求1所述的一种基于眼动兴趣数据获取产品原型方法,其特征在于,获取贝塞尔曲线步骤中,还包括角点筛选步骤:
检测和获取特征点数值,其中所述特征点包括真角点和假角点;
计算特征点和与特征点相邻的点的曲率值,若特征点的曲率值为极大值,则将该特征点分配为候选角点;
设置一曲率阈值,通过曲率阈值筛选出真角点,其中所述曲率阈值根据产品类型动态设置。
7.根据权利要求2所述的一种基于眼动兴趣数据获取产品原型方法,其特征在于,在K-均值聚类步骤中,进一步包括计算合并样本的总方差,其中根据不同样本总方差从小到大优先合并。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010157004.6A CN111522437B (zh) | 2020-03-09 | 2020-03-09 | 一种基于眼动数据获取产品原型方法和系统 |
US17/037,238 US11609628B2 (en) | 2020-03-09 | 2020-09-29 | Method and system for obtaining product prototype based on eye movement data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010157004.6A CN111522437B (zh) | 2020-03-09 | 2020-03-09 | 一种基于眼动数据获取产品原型方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111522437A CN111522437A (zh) | 2020-08-11 |
CN111522437B true CN111522437B (zh) | 2023-05-02 |
Family
ID=71901982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010157004.6A Active CN111522437B (zh) | 2020-03-09 | 2020-03-09 | 一种基于眼动数据获取产品原型方法和系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11609628B2 (zh) |
CN (1) | CN111522437B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113655882B (zh) * | 2021-08-17 | 2022-05-03 | 中国人民解放军军事科学院战争研究院 | 一种基于眼动数据测量的人机界面信息筛选方法 |
CN115439921A (zh) * | 2022-09-22 | 2022-12-06 | 徐州华讯科技有限公司 | 一种基于眼动图推理的图像偏好预测方法 |
CN115660789B (zh) * | 2022-11-23 | 2023-08-04 | 广州锐竞信息科技有限责任公司 | 基于智慧电商平台的产品图像管理系统 |
CN116824683B (zh) * | 2023-02-20 | 2023-12-12 | 广州视景医疗软件有限公司 | 一种基于移动设备的眼动数据采集方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960937A (zh) * | 2018-08-10 | 2018-12-07 | 陈涛 | Ar智能眼镜的应用基于眼动追踪技术的广告推送方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050058350A1 (en) * | 2003-09-15 | 2005-03-17 | Lockheed Martin Corporation | System and method for object identification |
US9727775B2 (en) * | 2015-12-01 | 2017-08-08 | Intel Corporation | Method and system of curved object recognition using image matching for image processing |
CN109475277B (zh) * | 2016-07-13 | 2021-08-24 | 奥林巴斯株式会社 | 图像处理装置、图像处理装置的控制方法和图像处理装置的控制程序 |
US10976816B2 (en) * | 2019-06-25 | 2021-04-13 | Microsoft Technology Licensing, Llc | Using eye tracking to hide virtual reality scene changes in plain sight |
-
2020
- 2020-03-09 CN CN202010157004.6A patent/CN111522437B/zh active Active
- 2020-09-29 US US17/037,238 patent/US11609628B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960937A (zh) * | 2018-08-10 | 2018-12-07 | 陈涛 | Ar智能眼镜的应用基于眼动追踪技术的广告推送方法 |
Non-Patent Citations (3)
Title |
---|
刘淼.感性量化评价技术在工业产品设计中的认知研究与应用———以智能电源产品设计的眼动实验为例.东华大学学报(自然科学版).2015,第41卷(第4期),第1-6页. * |
屈庆星.考虑多维设计特征的产品外观情感意象与设计要素提取方法研究.《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》.2016,第1-18页. * |
麻亚博.基于眼动信号的产品设计要素的评价研究.机械研究与应用.2017,第30卷(第151期),第1-3页. * |
Also Published As
Publication number | Publication date |
---|---|
US20210278895A1 (en) | 2021-09-09 |
US11609628B2 (en) | 2023-03-21 |
CN111522437A (zh) | 2020-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111522437B (zh) | 一种基于眼动数据获取产品原型方法和系统 | |
Morales et al. | Automatic detection of optic disc based on PCA and mathematical morphology | |
Marin et al. | Obtaining optic disc center and pixel region by automatic thresholding methods on morphologically processed fundus images | |
Sarathi et al. | Blood vessel inpainting based technique for efficient localization and segmentation of optic disc in digital fundus images | |
Grisan et al. | Automatic segmentation and disentangling of chromosomes in Q-band prometaphase images | |
Pan et al. | A Bayes-based region-growing algorithm for medical image segmentation | |
CN110334706A (zh) | 一种图像目标识别方法及装置 | |
CN110807351A (zh) | 一种基于人脸识别的智能化车载疲劳检测系统、方法及装置 | |
US20110013007A1 (en) | Eye detection unit using sequential data flow | |
CN106919933A (zh) | 瞳孔定位的方法及装置 | |
CN110276229A (zh) | 目标物体区域中心定位方法和装置 | |
CN103971361B (zh) | 图像处理装置和方法 | |
CN105913463B (zh) | 一种基于位置先验的纹理-颜色特征全局显著性检测方法 | |
CN110930446B (zh) | 一种眼底图像定量分析的前置处理方法及存储设备 | |
Jordan et al. | A review of feature-based retinal image analysis | |
CN104008364B (zh) | 人脸识别方法 | |
CN102567734A (zh) | 基于比值的视网膜细小血管分割方法 | |
CN110020627A (zh) | 一种基于深度图与特征融合的行人检测方法 | |
Gao et al. | Automatic optic disc segmentation based on modified local image fitting model with shape prior information | |
CN103268492B (zh) | 一种玉米籽粒类型识别方法 | |
Uribe-Valencia et al. | Automated Optic Disc region location from fundus images: Using local multi-level thresholding, best channel selection, and an Intensity Profile Model | |
CN106778491B (zh) | 人脸3d特征信息的获取方法及设备 | |
JP2003317084A (ja) | 顔画像からの目検出システム、目検出方法および目検出用プログラム | |
CN111861977A (zh) | 一种基于机器视觉的眼前节断层图像的特征提取方法 | |
CN110287795A (zh) | 一种基于图像分析的眼部年龄检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |