CN110585591A - 一种基于神经反馈的大脑视觉检测分析设备和方法 - Google Patents
一种基于神经反馈的大脑视觉检测分析设备和方法 Download PDFInfo
- Publication number
- CN110585591A CN110585591A CN201910704737.4A CN201910704737A CN110585591A CN 110585591 A CN110585591 A CN 110585591A CN 201910704737 A CN201910704737 A CN 201910704737A CN 110585591 A CN110585591 A CN 110585591A
- Authority
- CN
- China
- Prior art keywords
- acupuncture
- data
- vision
- server
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004438 eyesight Effects 0.000 title claims abstract description 151
- 238000001514 detection method Methods 0.000 title claims abstract description 52
- 210000004556 brain Anatomy 0.000 title claims abstract description 29
- 238000004458 analytical method Methods 0.000 title claims abstract description 17
- 210000005036 nerve Anatomy 0.000 title claims abstract description 7
- 238000000034 method Methods 0.000 title abstract description 42
- 238000001467 acupuncture Methods 0.000 claims abstract description 394
- 208000029257 vision disease Diseases 0.000 claims abstract description 70
- 230000004382 visual function Effects 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000003062 neural network model Methods 0.000 claims abstract description 17
- 210000004709 eyebrow Anatomy 0.000 claims description 85
- 230000000007 visual effect Effects 0.000 claims description 45
- 230000008859 change Effects 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 24
- 108010064719 Oxyhemoglobins Proteins 0.000 claims description 22
- 238000012937 correction Methods 0.000 claims description 21
- INGWEZCOABYORO-UHFFFAOYSA-N 2-(furan-2-yl)-7-methyl-1h-1,8-naphthyridin-4-one Chemical compound N=1C2=NC(C)=CC=C2C(O)=CC=1C1=CC=CO1 INGWEZCOABYORO-UHFFFAOYSA-N 0.000 claims description 16
- 108010002255 deoxyhemoglobin Proteins 0.000 claims description 16
- 230000010354 integration Effects 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 6
- 230000005043 peripheral vision Effects 0.000 claims description 4
- 230000035945 sensitivity Effects 0.000 claims description 3
- 230000008521 reorganization Effects 0.000 claims description 2
- 210000001508 eye Anatomy 0.000 description 92
- 230000006870 function Effects 0.000 description 24
- 239000000523 sample Substances 0.000 description 22
- 201000009487 Amblyopia Diseases 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 15
- 210000003128 head Anatomy 0.000 description 12
- 230000000694 effects Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 208000001491 myopia Diseases 0.000 description 7
- 230000004379 myopia Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000003925 brain function Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 108010054147 Hemoglobins Proteins 0.000 description 5
- 102000001554 Hemoglobins Human genes 0.000 description 5
- 230000007812 deficiency Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000008344 brain blood flow Effects 0.000 description 4
- 210000003710 cerebral cortex Anatomy 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 210000004185 liver Anatomy 0.000 description 4
- 210000004279 orbit Anatomy 0.000 description 4
- 230000004304 visual acuity Effects 0.000 description 4
- 241000251468 Actinopterygii Species 0.000 description 3
- 208000031971 Yin Deficiency Diseases 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 210000003734 kidney Anatomy 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 210000003786 sclera Anatomy 0.000 description 3
- 206010062717 Increased upper airway secretion Diseases 0.000 description 2
- 208000004350 Strabismus Diseases 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 2
- 208000031975 Yang Deficiency Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- SZGZILRQIYNODJ-UHFFFAOYSA-L disodium;7,12-dihydroquinoxalino[3,2-b]phenazine-2,9-disulfonate Chemical group [Na+].[Na+].[O-]S(=O)(=O)C1=CC=C2N=C(C=C3C(NC4=CC=C(C=C4N3)S(=O)(=O)[O-])=C3)C3=NC2=C1 SZGZILRQIYNODJ-UHFFFAOYSA-L 0.000 description 2
- 201000009407 disuse amblyopia Diseases 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000009931 harmful effect Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000004080 milk Anatomy 0.000 description 2
- 235000013336 milk Nutrition 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 208000026435 phlegm Diseases 0.000 description 2
- 230000004393 visual impairment Effects 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 206010001908 Amblyopia congenital Diseases 0.000 description 1
- 244000052909 Dioscorea esculenta Species 0.000 description 1
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 206010034960 Photophobia Diseases 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 208000005392 Spasm Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 201000009406 ametropic amblyopia Diseases 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000004329 axial myopia Effects 0.000 description 1
- 238000009411 base construction Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 230000004339 curvature myopia Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 235000005686 eating Nutrition 0.000 description 1
- 238000001827 electrotherapy Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 208000030533 eye disease Diseases 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 235000014490 good eating habits Nutrition 0.000 description 1
- 108010036302 hemoglobin AS Proteins 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 230000004377 improving vision Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000001717 pathogenic effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000010926 purge Methods 0.000 description 1
- 208000014733 refractive error Diseases 0.000 description 1
- 230000004331 refractive myopia Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000000741 silica gel Substances 0.000 description 1
- 229910002027 silica gel Inorganic materials 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/026—Measuring blood flow
- A61B5/0261—Measuring blood flow using optical means, e.g. infrared light
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
- A61B5/1455—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
- A61B5/14551—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
- A61B5/14553—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases specially adapted for cerebral tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H39/00—Devices for locating or stimulating specific reflex points of the body for physical therapy, e.g. acupuncture
- A61H39/02—Devices for locating such points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H39/00—Devices for locating or stimulating specific reflex points of the body for physical therapy, e.g. acupuncture
- A61H39/08—Devices for applying needles to such points, i.e. for acupuncture ; Acupuncture needles or accessories therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/18—Applying electric currents by contact electrodes
- A61N1/32—Applying electric currents by contact electrodes alternating or intermittent currents
- A61N1/36—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
- A61N1/36046—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation of the eye
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/18—Applying electric currents by contact electrodes
- A61N1/32—Applying electric currents by contact electrodes alternating or intermittent currents
- A61N1/36—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
- A61N1/3605—Implantable neurostimulators for stimulating central or peripheral nerve system
- A61N1/36128—Control systems
- A61N1/36135—Control systems using physiological parameters
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Rehabilitation Therapy (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Neurology (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Physical Education & Sports Medicine (AREA)
- Pain & Pain Management (AREA)
- Physiology (AREA)
- Epidemiology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Cardiology (AREA)
- Hematology (AREA)
- Neurosurgery (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Optics & Photonics (AREA)
- Ophthalmology & Optometry (AREA)
- Finger-Pressure Massage (AREA)
Abstract
本申请公开了一种基于神经反馈的大脑视觉检测分析设备和方法,设备包括检测设备、第一服务器和电子针灸设备;检测设备用于获取用户的生理数据和用户的当前视功能参数;第一服务器用于根据当前视功能参数和生理数据,更新当前训练样本和当前神经网络模型;通过更新后的神经网络模型,输出用户的视力障碍类型和视力障碍等级;第一服务器还用于根据视力障碍类型和视力障碍等级,确定电子针灸数据;根据电子针灸数据,为用户匹配对应的电针设备运行数据;电子针灸设备用于根据电针设备运行数据,为用户进行电子针灸。本申请不仅能够实时调整电子针灸参数以适应用户的当前的视力状况,还可优选针灸穴位和穴位组合。
Description
技术领域
本申请涉及大脑视觉检测领域,尤其涉及一种基于神经反馈的大脑视觉检测分析设备和方法。
背景技术
电子针灸技术是指在刺入人体穴位的毫针上,用电针机通以微量低频脉冲电流来刺激人体穴位。
通常,医护人员根据用户的视力状况,在电子针灸设备上设置施针穴位或穴位组合、电波波形、电波频率、电流强度、施针时间、针灸种类等电子针灸参数。
然而上述方法的电子针灸参数的一旦设定,医护人员不能实时调整电子针灸参数以适应用户的当前的视力状况,从而降低了用户体验。
发明内容
为了解决上述问题,本申请提出了一种基于神经反馈的大脑视觉检测分析设备和方法,能够实时调整电子针灸参数以适应用户的当前的视力状况,从而提高了用户体验。
第一方面,本申请实施例提供了一种基于神经反馈的大脑视觉检测分析设备,所述设备包括检测设备、第一服务器和电子针灸设备;
所述检测设备用于获取用户的生理数据和视功能参数,所述生理数据包括:氧合血红蛋白浓度变化数据和/或脱氧血红蛋白浓度变化数据;
所述第一服务器用于根据所述当前视功能参数和所述生理数据,更新当前训练样本和当前神经网络模型;通过更新后的神经网络模型,以所述当前视功能参数和所述生理数据为输入,输出所述用户的视力障碍类型和视力障碍等级;
所述第一服务器还用于根据所述视力障碍类型和所述视力障碍等级,确定至少一个电子针灸数据;所述第一服务器预存多个电子针灸数据,所述电子针灸数据用于指示所述视力障碍类型和/或视力障碍等级与电针参数、施针穴位和针灸种类的对应关系;根据所述至少一个电子针灸数据,为所述用户匹配对应的电针设备运行数据,所述电针设备运行数据包括:电针参数、针灸种类和施针穴位;
所述电子针灸设备用于根据所述电针设备运行数据,为所述用户进行电子针灸。
在一个示例中,所述设备还包括:医护终端;所述医护终端用于获取视力参考数据,所述视力参考数据包括:所述用户的历史视力状况数据和/或影响视力的数据;其中,所述影响视力的数据包括:影响视力的人的体质数据和影响视力的人的生活方式数据;
所述第一服务器用于接收所述视力参考数据,并根据所述视力障碍类型、所述视力障碍等级和所述视力参考数据,确定所述用户对应的视力特征类型标识,所述视力特征类型标识,用于指示用户视力状况所属的类型;根据所述视力特征类型标识,确定至少一个所述电子针灸数据。
在一个示例中,所述第一服务器用于从所述视力参考数据中提取至少一个关键词,所述关键词包括所述用户的历史视力状况关键词、体质关键词和生活方式关键词中的一个或多个;根据各所述关键词所述,分别确定对应的视力影响因子,所述视力影响因子包括:所述用户的历史视力状况、体质和生活方式中的一个或多个;通过数字、字母或者两者的结合,分别表征所述视力障碍类型、所述视力障碍等级和所述视力影响因子;利用所述视力障碍类型、所述视力障碍等级和各所述视力影响因子对应的数字、字母或者两者的结合,生成所述用户对应的视力特征类型标识。
在一个示例中,所述第一服务器还用于根据所述视力影响因子对应数值的大小,分别为各所述视力影响因子配置修正参数;根据各所述修正参数,确定总修正参数;根据所述总修正参数的对应数值,修正所述视力特征类型标识。
在一个示例中,所述第一服务器用于根据所述视力特征类型标识,确定多个查询关键词;在知识库中,分别确定各所述电子针灸数据中含有的所述查询关键词的个数;根据所述查询关键词的个数,从知识库中获取与所述视力特征类型标识相似度大于阈值的电子针灸数据,其中,所述知识库预先设置在所述第一服务器中。
在一个示例中,所述第一服务器用于在所述至少一个电子针灸数据中,确定至少一个逻辑运算公式;通过所述至少一个逻辑运算公式,以所述视力特征类型标识中的视力障碍类型、所述视力障碍等级和所述视力参考数据为输入,输出至少一个所述电针参数、至少一个所述施针穴位和至少一个所述针灸种类;根据所述至少一个所述电针参数、至少一个所述施针穴位或至少一个所述针灸种类,确定至少一个所述电针设备运行数据。
在一个示例中,所述第一服务器用于根据所述视力特征类型标识,从知识库中获取理论施针穴位集合和理论针灸种类集合,其中,所述知识库预先设置在所述第一服务器中;
在所述第一服务器得到一个所述电针设备运行数据时,所述第一服务器用于分别检测所述施针穴位和所述针灸种类是否属于所述理论施针穴位集合和所述理论针灸种类集合;
在检测结果为否时,所述第一服务器用于根据所述视力特征类型标识,重新确定至少一个电子针灸数据;根据所述重新确定的至少一个电针灸数据,确定至少一个新的逻辑运算公式,并根据各个所述新的逻辑运算公式,重新输出至少一个电针设备运行数据。
在一个示例中,所述第一服务器还用于检测是否为初次获取所述用户的理论施针穴位集合和理论针灸种类集合;
在确定为初次获取时,所述第一服务器用于从所述知识库预设查询起始节点开始查询所述理论施针穴位集合和所述理论针灸种类集合,并获取所述理论施针穴位集合和所述理论针灸种类集合;
在确定不是初次获取时,所述第一服务器用于确定所述用户的最近一次的获取记录;根据所述获取记录,在所述知识库确定所述用户的查询起始节点,并从所述用户的查询起始节点开始查询所述理论施针穴位集合和所述理论针灸种类集合,并获取所述理论施针穴位集合和所述理论针灸种类集合。
在一个示例中,在所述第一服务器根据所述至少一个逻辑运算公式,确定多个所述电针灸方式时,所述第一服务器用于接收来自所述医护终端的所述用户的历史视力状况数据;根据所述至少一个电子针灸数据和所述用户的历史视力状况数据,构建数据库;基于所述数据库中的数据,通过数据重组和/或数据修正,确定一个或多个所述电针设备运行数据。
在一个示例中,所述设备还包括:第二服务器;
在所述第一服务器根据所述至少一个电子针灸数据和所述用户的历史视力状况数据,确定多个所述电针设备运行数据时,所述第一服务器用于将各个所述电针设备运行数据发送给所述电子针灸设备;
所述电子针灸设备用于分别给各个所述电针设备运行数据分配序号;按照所述序号依次执行各个所述电针设备运行数据,并将各个所述电针设备运行数据以及相应的序号发送给第二服务器;
所述第二服务器用于在接收到多个所述电针设备运行数据以及相应的序号时,向所述检测设备发送第一指令,以便于所述检测设备与所述第二服务器建立连接,并与所述第一服务器断开连接;接收来自所述检测设备的所述多个电针设备运行数据对应的多个脑部氧合血红蛋白变化量,并确定最大脑部氧合血红蛋白变化量对应的电针设备运行数据为目标数据;向所述检测设备发送第二指令,以便于所述检测设备与所述第二服务器断开连接,与所述第一服务器建立连接,并向所述第一服务器发送所述目标数据对应的生理数据。
在一个示例中,所述电子针灸设备包括:采集模块、图像处理模块和穴位定位模块;
所述采集模块用于采集所述用户的面部图像;
所述图像处理模块用于在所述用户的面部图像,确定用户眉眼图像;其中,所述眉眼图像为包含所述用户的眉毛和眼睛区域的图像;对所述眉眼图像进行灰度处理;根据所述灰度处理后的眉眼图像的大小构造横向算子,且所述横向算子为奇数;将所述横向算子与所述灰度处理后的眉眼图像卷积,得到眉眼图像的横向灰度变化曲线;将所述眉眼图像的横向灰度变化曲线的最大值,作为眼睛区域横向上的中心位置;在所述眼睛区域的横向中心位置处,将沿纵向分别向上、下直至到达预设比例的两个位置,作为眼睛区域的上边界和下边界;根据所述眼睛区域的上边界和下边界,对所述眉眼图像进行截取,得到眼睛区域的横向位置图像;对所述横向位置图像的左半部分图像或右半部分图像中的每一个像素,计算在所述上边界和下边界之间的纵向灰度积分函数,得到纵向灰度积分函数图像;在所述纵向积分函数图像的所有的波峰和波谷中,将在横向位置图像中最左侧和最右侧的波峰或波谷所对应的位置,作为眼睛区域在纵向上的左边界和右边界;
所述穴位定位模块用于根据所述眼睛区域的左边界和右边界,对所述横向位置图像进行截取,确定所述眉眼图像上的眼睛区域;根据已确定的所述眼睛区域,以及所述多个眼部穴位在人面部上与所述眼睛区域之间对应的位置关系,确定所述眉眼图像上对应的所述多个眼部穴位的位置信息。
在一个示例中,所述当前视功能参数包括:视锐度、屈光度、屈光参差、周边视力、融像功能参数、立体视功能参数、同时视视功能参数、噪音排除能力参数、空间对比敏感度中的一个和多个。
第二方面,本申请实施例提供了一种基于神经反馈的大脑视觉检测分析方法,包括:
检测设备获取用户的生理数据和视功能参数,所述生理数据包括:氧合血红蛋白浓度变化数据和/或脱氧血红蛋白浓度变化数据;
第一服务器根据所述当前视功能参数和所述生理数据,更新当前训练样本和当前神经网络模型;通过更新后的神经网络模型,以所述当前视功能参数和所述生理数据为输入,输出所述用户的视力障碍类型和视力障碍等级;
所述第一服务器根据所述视力障碍类型和所述视力障碍等级,确定至少一个电子针灸数据;所述第一服务器预存多个电子针灸数据,所述电子针灸数据用于指示所述视力障碍类型和/或视力障碍等级与电针参数、施针穴位和针灸种类的对应关系;根据所述至少一个电子针灸数据,为所述用户匹配对应的电针设备运行数据,所述电针设备运行数据包括:电针参数、针灸种类和施针穴位;
电子针灸设备根据所述电针设备运行数据,为所述用户进行电子针灸。
在本申请实施例中,氧合血红蛋白浓度变化数据和脱氧血红蛋白浓度变化数据为目前可以直观反映出用户的视力状况的数据,因此以氧合血红蛋白浓度变化数据和脱氧血红蛋白浓度变化数据为依据调整电子针灸参数,以提高调整的准确度;同时利用当前视功能参数,以及实时调整训练样本和神经网络模型,以保证数据的时效和实时调整电子针灸参数。此外,本申请实施例提供的技术方案还能够实时调整针灸种类和施针穴位,从而进一步提高电子针灸参数对用户的适应性。因此,本申请实施例提供的技术方案能够实时调整电子针灸参数以适应用户的当前的视力状况,还可优选针灸穴位和穴位组合,从而提高了用户视功能。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例提供的一种基于神经反馈的大脑视觉监测分析设备示意图;
图2为本申请实施例提供的一种检测设备的示意图;
图3为本申请实施例提供的一种电针数据获取单元的结构示意图;
图4为本申请实施例提供的一种视力特征和电针灸方式对应关系示意图;
图5为本申请实施例提供的一种大脑视觉检测分析设备中的推理系统示意图。
具体实施方式
为了更清楚的阐释本申请的整体构思,下面结合说明书附图以示例的方式进行详细说明。
本申请实施例公开了一种基于神经反馈的大脑视觉监测分析设备,如图1所示,该系统包括:检测设备110、医护终端120、服务器130、电子针灸设备140和电针方式选择单元150。其中,服务器130对应于第一服务器,电针方式选择单元150对应于第二服务器。服务器130包括视力特征编码单元131、电针数据获取单元132和神经网络单元133。
需要说明的是,视力特征编码单元131、电针数据获取单元132可以是两个软件模块,也可以是两个硬件设备,本申请实施例对此不做限定。服务器130可以是一个服务器,也可以包括多个服务器。同样,电针方式选择单元150可以是软件模块,也可以是硬件设备,本申请实施例对此也不做限定。
检测设备110用于检测用户生理数据和当前视功能参数,生理数据可以是氧合血红蛋白浓度变化数据和脱氧血红蛋白浓度变化数据。用户的当前视功能参数包括以下任意一项或多项:视锐度、屈光度、屈光参差、周边视力、融像功能参数、立体视功能参数、同时视视功能参数、噪音排除能力参数、空间对比敏感度等,其表现形式可以是数字、文字、图片及其组合。因此,检测设备110可以是近红外光学脑功能成像设备,还可以进一步包括视功能参数检测设备。也就是说,检测设备110可以是近红外光学脑功能成像设备,检测设备110也可以包括近红外光学脑功能成像设备和视功能参数检测设备。
图2是本申请实施例提供的一种检测设备的示意图。检测设备110包括近红外光学脑功能成像设备111和视功能参数检测设备112。
近红外光学脑功能成像设备111包括:探测部1111和控制主机1112。探测部1111包括多个光纤探头和一个头罩,其中,多个光纤探头设置在头罩内表面上,头罩为硅胶材质。使用时,用户将头罩带在头顶,使得光纤探头分布在头部的多个部位。光纤探头向用户的头部发送近红外信号,并接收从用户头部返回的近红外信号,再将接收到的近红外信号通过光纤发送给控制主机1112。控制主机根据返回的近红外信号,得到脑部血流信号,根据得到的脑部血流信号,得到脑皮层中氧合血红蛋白浓度变化数据以及脑皮层中脱氧血红蛋白浓度变化数据。控制主机1112得到的氧合血红蛋白浓度变化数据以及脱氧血红蛋白浓度变化数据的形式可以有多种,例如:序号式时间曲线图、部位式时间曲线图、头部位置时间曲线图、二维地形图。本领域技术人员可以理解,无论任何形式的血红蛋白浓度变化数据,都是用于体现氧合血红蛋白浓度的变化和脱氧血红蛋白浓度的变化。
下面简要阐述,通过向人脑头部发射通过近红外光信号,得到用户的氧合血红蛋白浓度变化数据以及脱氧血红蛋白浓度变化数据的原理。
近红外光信号可以穿透人体组织和骨骼,达到颅内2-3cm深度,即大脑皮质水平,之后近红外光信号被大脑平层中的血红蛋白吸收。基于上述原理,近红外光学脑功能成像设备通过向大脑发射具有一定频率的近红外光信号,例如,波长范围为695nm到830nm,以采集脑部血流信号,再根据脑部血流信号,确定脑皮层中氧合血红蛋白浓度变化、脱氧血红蛋白浓度变化。
图1中,医护终端120是医护人员用于采集并记录用户的视力参考数据的设备,视力参考数据包括:用户的年龄、性别、用户的历史视力状况数据、影响视力的其他数据等。用户的历史视力状况数据包括:用户曾经采用的电针设备运行数据、用户的历史视功能参数。影响视力的其他数据包括影响视力的人的体质和影响视力的人的生活方式等。影响视力的人的体质包括:平和体质、气虚体质、阳虚体质、阴虚体质、痰湿体质、湿热体质、血瘀体质、气郁体质和特禀体质。影响视力的人的生活方式包括:喜爱运动、喜爱看电视、不吃鱼类和奶类等。
本领域技术人员可以理解的是,生理数据、由医护终端获取的当前视功能参数和视力参考数据应当来自同一用户。
在本申请实施例中,如图1所示,医护终端120将当前视功能参数发送给神经网络单元133,并将视力参考数据发送给视力特征编码单元131。此外,医护终端120还将历史视力状况数据发送至电针数据获取单元132。
在本申请实施例中,神经网络单元133通过BP(Back Propagation,反向传播)神经网络算法,根据接收到的当前视功能参数和用户生理数据(如氧合血红蛋白浓度变化数据、脱氧血红蛋白浓度变化数据等),确定视力障碍类型(如弱视、近视等)、视力障碍等级(如严重、一般、轻微等),其中,具体方法如下:
步骤1、输入n个学习样本,N个学习样本中每个样本包括以下一项或多项:用户生理数据(如氧合血红蛋白浓度变化数据、脱氧血红蛋白浓度变化数据等)和当前视功能参数(如用户的视锐度、屈光度、屈光参差、周边视力、融像功能参数、立体视功能参数等)。
步骤2、确定BP网络结构。根据实际需要设置网络层数L和每一层节点数,根据给定样本中输入向量的维数n,确定网络输入层节点数为n;根据给定样本中输出向量的维数m,确定网络输出层节点数为m;第L层的节点数为n(L)。确定各个层数之间的连接权矩阵,并初始化每个矩阵中的各个元素值。
输入节点数与需要参考的参数数量有关,例如,医院A需要参考视锐度、屈光度、屈光参差、氧合血氧红蛋白浓度变化数据,则输入节点数量4。输出节点数量与需要输出参数的数量有关。例如,医院通常需要获取用户的视力障碍类型、视力障碍等级,则输出节点数为2。由于输入节点数和输出节点数需要根据实际情况确定,因此在本申请实施例中不对输入节点数和输出节点数做具体限定。
根据神经网络的特点,隐含层上的节点数量足够多时,3层BP网络就能模拟任意复杂的非线性映射关系。因此,在本申请实施例中,网络层数L大于等于3,当L=3时,隐含层上的节点数为:
其中,a为大于等于1小于等于10的常数。
步骤3、设置输入目标误差ε的范围和网络学习速率η的数值,初始化迭代步数t=1,设置样本序号k=1。
在本申请实施例中,当网络学习速率较大时,权值的变化就大,网络的收敛速度就快,然而网络学习速率太大往往容易引起振荡,即影响稳定性。当网络学习速率较小时,能够避免产生振荡,然而网络学习速率太小可能会使得训练过程变慢,降低了网络的学习效率。根据经验,本申请实施例采用稍微小些的值来保证网络的收敛性,例如网络学习速率范围为0.05~0.07。
步骤4、取第k个学习样本,记为Xk,对Xk进行正向传播计算。计算输入层各节点的输出,并依次求出每层每个节点的输入和输出。
步骤5、求出输出层的所有节点与给定样本之间的误差。
步骤6、若在n个学习样本中至少有一个样本的误差小于等于目标误差ε,则学习过程结束;否则,进入误差反向传播阶段调整各连接权矩阵,并返回步骤4。
由于用户个体之间的差异比较大,且输入的参数较多,因此对于不同的用户,输入向量和输出向量之间的可能存在多种非线性关系,为了保证本申请实施例提供的BP神经网络模型的收敛程度,在本申请实施例提供的BP神经网络模型中,通过以下函数作为激活函数,激活函数具体如下:
tanh=2sigmoid(2x)-1 (1)
其中,tanh为激活函数的函数值,sigmoid为S型生长曲线,x为输入向量。通过上述激活函数(1)增强了BP神经网络模型的收敛程度,能够快速准确的输出用户的视力障碍类型和视力障碍等级。之后,神经网络单元133将得到的视力障碍类型和视力障碍等级发送给视力特征编码单元131。
在本申请实施例中,视力障碍类型包括:近视、弱视。其中,弱视类型包括:斜视性弱视,屈光参差性弱视,屈光不正性弱视,废用性弱视(形觉剥夺性弱视),先天性弱视(器质性弱视)中的一个或多个。近视类型可以包括:轴性近视、弯曲度性近视和屈光率性近视眼等。
视力障碍等级包括:近视等级和弱视等级。弱视等级如弱视度数范围或弱视级别。近视等级如近视度数范围或者近视等级。
视力特征编码单元131根据接收到的视力障碍类型、视力障碍等级、视力参考数据,输出一个或多个视力特征类型标识,该视力特征类型包括:视力障碍类型、视力障碍等级和视力影响因子,视力影响因子包括性别、年龄、体质、生活方式中的一个或多个。
具体地,在本申请的一个实施例中,用户视力特征数据通常会记载在由医护终端采集到的视力参考数据中,视力特征编码单元131获取视力参考数据中的关键词,该关键词包括用户的年龄、性别、用户的历史视力状况关键词、体质关键词和生活方式关键词中的一个或多个。视力特征编码单元131根据多个关键词,分别确定各个视力影响因子。再通过数字、字母或者两者的结合,分别表征视力障碍类型、视力障碍等级和视力影响因子;利用视力障碍类型、视力障碍等级和各视力影响因子对应的数字、字母或者两者的结合,生成用户对应的视力特征类型标识。例如,可以用英文字母表示视力障碍类型,可以用数字的数值大小表示视力障碍等级,可以用数字1-9分别代表平和体质、气虚体质、阳虚体质、阴虚体质、痰湿体质、湿热体质、血瘀体质、气郁体质和特禀体质。
通过视力特征编码单元131输出的视力特征类型标识可通过数字、字母或者两者的结合表示,视力特征类型标识与视力特征类型一一对应。一种数字或字母或者数字字母组合对应一个视力特征。例如,视力特征类型标识A121311,其中“A”表示视力障碍类型为弱视类型,第一个数字“1”表示性别,数字“2”表示,用户年龄或者用户年龄所处阶段,对于用户年龄所处阶段如1表示婴幼儿,2表示青少年,3表示中老年等。第二个数字“1”表示检测设备在检测时间内用户脑部氧合血红蛋白浓度变化区间范围。数字“3”表示检测设备在检测时间内用户的脑部脱氧血红蛋白浓度变化区间范围,第三个数字“1”表示体质正常,如果体质虚弱用大于1的正整数表示(例如,2对应肾虚,3对应肝虚)。第四个数字“1”表示生活方式正常,生活方数字“2”表示生活方式利于视力健康,数字“3”表示生活方式不利于数字健康。也可以通过多个数字表示生活方式,例如,11表示正常生活方式,12表示利于视力健康的生活方式——喜爱运动,21表示不利于视力健康的生活方式——喜爱看电视,22表示不利于视力健康的生活方式——不吃鱼类和奶类等。
上述方式可表示不同用户的生活方式与影响视力的关系,然而不同的用户会有不同的视力影响因子,如果每一个视力影响因子都按照上述方式写入视力特征类型标识,会导致个别视力特征类型标识很长,不利于数据处理。虽然视力影响因子种类很多,但是各视力影响因子通常只会对视力产生有益效果或有害效果,而各视力影响因子产生的有益效果或有害效果是可以叠加的。因此,当存在多个视力影响因子时,将各个视力影响影子的效果进行叠加,以得到一个效果总和,并将效果总和作为视力特征类型标识中影响因子对应的标识。
具体的,在本申请实施例中,对于没有对应穴位,或无法利用用户的生理数据进行量化的视力影响因子,例如日常生活方式为喜欢户外运动,很难利用用户的生理数据进行量化,也没有对应的穴位。基于上述情况,本申请实施例通过视力特征编码单元131获取视力参考数据中的关键词,然后分别计算各个关键词对应的修正系数,修正系数为根据用户的生活方式,对视力影响等级所作出的修正值。之后,视力特征编码单元131根据各个修正系数,计算总修正系数,并将总修正系数作为视力特征类型标识中影响因子对应的标识。例如,年龄大于阈值时修正系数为1,饮食习惯良好修正系数为-0.2,则总修正系数为0.8,则在新的视力特征类型标识中,利用数字“0.8”作为视力特征类型标识中影响因子对应的标识。
在本申请实施例中,电针数据获取单元132用于为接收到的各个视力特征标识,分别匹配电针设备运行数据。通常,电针设备运行数据包括电针参数、施针穴位和针灸种类。其中,针灸种类可以包括:耳针法,头针法,眼针法,手针法,足针法,腕踝针法,声电波电针法,电火针法,微波针法等。电针参数包括:电波波形、电波频率、电流强度、施针时间、施针次序、施针温度。其中,电波波形、电波频率和电流强度对应于施针力道和针刺手法。在本申请实施例不限于采用具体何种针灸种类。较佳地,可采用眼针法、手针法。
施针穴位具体为睛明穴,攒竹穴,丝竹空穴,瞳子髎穴,承泣穴,太阳穴,球后穴,鱼腰穴以及各种影响视力的各个穴位,例如耳部存在两个穴位分别用来调理肝脏,调理肾脏,对应于肝虚、肾虚。施针穴位还包括穴位组合,穴位组合具体为上述穴位中的任意一种或多种穴位组合。其中,各穴位的功能分别为:
睛明穴,主治目疾羞明,有明目作用。
攒竹穴,具有清热明目的功效。
丝竹空穴,具有散风止痛、清头明目的功效。
瞳子髎穴,具有疏散风热、明目止痛的功效。
承泣穴,具有散风泻火、镇痉明目的功效。
太阳穴,具有清头明目的功效。
球后穴,具有活血明目的功效。
鱼腰穴,具有清头费目的功效。
显而易见的,一个用户可能会匹配到多个电针设备运行数据。下面详细阐述电针数据获取单元132如何为该用户对应的多个视力特征标识,分别匹配一个电针设备运行数据。
如图3所示,在本申请实施例中,电针数据获取单元132包括:知识库1321、推理系统1322、电子针灸设备接口1323、逻辑库构建单元1324和逻辑库1325。
知识库1321用于存储现有知识和经验以及一般常识和普适性规则。其中,知识库1321中的数据主要包括理论数据和经验数据两部分,理论数据来源于文献资料中的常识、普适性规则和经过证实的医学理论。经验数据为专家医生经验知识和成功的电子针灸案例,其中电子针灸案例对应于电子针灸数据。
具体地,知识库1321的理论数据部分可以如图4所示的方式存储视力特征类型和与之对应的施针穴位和针灸种类。知识库1321中按照树状结构存储视力特征,其中,视力障碍为种类统称,外延最广,作为“树根”;视力障碍类型具体为弱视、远视、斜视,作为“树干”;视力特征类型标识对应于每个用户的视功能状态,外延最窄,作为“树枝”;每根“树枝”上都长有至少一片“树叶”,“树叶”为施针穴位或穴位组合,以及针灸种类。可以理解的是,每一种视力特征理论上会对应至少一种电针设备运行数据。例如,视力特征为弱视且心肝阴虚,则对应的针灸种类可以为梅花针法,施针穴位可以为正光、风池、内关、神门、大椎、心俞、肝俞。
可以理解的是,用户个体之间差异比较大,因此电针参数无法提前预先设定,需要推理系统1322通过案例进行分析而得到。所以,没有将电针参数存储到理论数据部分。
逻辑库构建单元1324用于根据视力特征类型标识,确定多个查询关键词,再根据多个关键词,从知识库1321中获取n个与视力特征类型相近的案例,再根据获取到的n个案例,构建出m个逻辑运算公式,最后将m个逻辑运算公式存储在逻辑库1325。例如,逻辑库构建单元1324识别出案例中视力特征类型的对应的关键词,再根据上述关键词得到n个逻辑运算公式。最后将前提部分相同的逻辑系合并成一个新的逻辑运算公式,从而得到m个逻辑运算公式。其中,逻辑运算公式的形式可以为:If P Then Q。其中,P为前提部分,Q为结论部分。具体的,P为视力特征,Q为相应的施针穴位、电针参数或针灸种类。推理系统1322用于基于逻辑库1325中的m个逻辑以及知识库1321中的理论数据部分,确定电针设备运行数据。
电子针灸设备接口1323用于连接电针数据获取单元132和电子针灸设备140,以便于电针数据获取单元132控制电子针灸设备140以电针设备运行数据对用户施针。
在本申请实施例中,推理系统1322在确定电针设备运行数据时,主要执行以下步骤:
步骤1、基于知识库1321中理论数据部分确定不同的视力特征类型标识与其对应的理论施针穴位集合和理论针灸种类集合。
不同的视力特征类型标识与其对应的理论施针穴位集合和理论针灸种类集合按照图3所示的方式在知识库1321中存储,可以理解的是一个视力特征类型标识可以对应多种施针穴位以及针灸种类,因而构成理论施针穴位集合和理论针灸种类集合。
在本申请实施例中,对于首次进行大脑视觉检测分析的用户时,采用广度优先法遍历数据库以查找相应的施针穴位以及针灸种类,且该查找结果可以为多个施针穴位、多个穴位组合以及多个针灸种类,并在对应地记录施针穴位以及针灸种类和视力特征类型标识。而后,在实时调整施针穴位以及针灸种类的过程中,需要多次在数据库中查询施针穴位以及针灸种类,以实现根据用户的生理数据,实时调整施针穴位以及针灸种类。
可以理解的是,每一次对用户进行电子针灸后,用户弱视等级通常会发生改变,且该变化主要来自生理数据的变化,弱视类型通常不会发生变化。例如,每一次电子针灸后,脑部氧合血红蛋白浓度增大,则弱视等级降低。基于上述情况可以推出,每一次电子针灸不会引起视力特征类型标识发生很大变化,因此每一次施针穴位、穴位组合以及针灸种类对应的查询路径变化不大,推理系统1322可以以最近一次记录的数据存储节点为起始查询节点,基于广度优先法查找相应的施针穴位、穴位组合以及针灸种类。
通过上述方式,推理系统1322不必要每次都从存储的根节点开始查找,从而提高了查找效率。以图3中的视力特征类型标识n1为例,在一次电子针灸之前,视力特征类型标识n1为A1211,其中,其中“A”表示弱视类型,第一个数字“1”表示性别,数字“2”表示,用户年龄。第二个数字“1”表示脑部氧合血红蛋白浓度的取值范围,第三个数字“1”表示体质正常。在电子针灸之后,仅仅是脑部氧合血红蛋白浓度增大,此时视力特征类型标识为A1221,对应于视力特征类型标识n2。显而易见的,此时如果从根节点视力障碍(种类统称)开始进行广度优先查询,则至少需要查询n+2次,如果以视力特征类型标识n1为起始查询节点,至少需要查询3次(三次依次为:视力特征类型标识n1,视力障碍类型n,视力特征类型标识n2)。
对于非首次大脑视觉检测分析时,推理系统1322判断视力特征类型标识是否与最近的一次电子针灸的视力特征类型标识相同,如果相同,直接读取上次的电针设备运行数据;否则,以最近一次的视力特征类型标识为查询起点,采用广度优先法遍历数据库以查找相应的电针设备运行数据。
步骤2、如图3所示,基于逻辑库1325中的逻辑运算公式和知识库1321中的经验数据部分,确定电针设备运行数据。
具体地,推理系统1322根据逻辑库1325中的已有逻辑运算公式,进行推断,分别得到至少一个电针参数、至少一个施针穴位和至少一个针灸种类。再根据得到的数据,确定电针设备运行数据。例如,共有三个逻辑运算公式A、B、C,其中推理系统1322根据逻辑运算公式A得到电针参数,根据逻辑运算公式B得到施针穴位,根据逻辑运算公式C得到针灸种类。那么推理系统1322根据得到的电针参数、施针穴位和针灸种类,确定电针设备运行数据。该逻辑运算公式的基本形式为:P→Q或If P Then Q。其中,P为前提部分,Q为结论部分。对应地,视力特征类型标识中含有的视力特征代表前提部分,电针参数、施针穴位以及针灸种类为结论部分。该方法具有直观、自然、易于推理和理解的优点,可以方便地利用计算机语言进行表述和控制,从而模拟人类专家的思维方式进行问题求解。
步骤3、利用步骤1中的理论施针穴位集合和理论针灸种类集合验证推理系统1322根据逻辑运算公式得到结论部分是否正确。例如,推理系统1322得到的穴位组合为穴位A和穴位B,则推理系统1322验证该穴位组合是否包含在步骤1中的穴位组合中,如果是,说明推理正确,否则说明推理错误。如果推理错误,那么推理系统1322会向逻辑库构建单元1324发送重建逻辑运算公式请求,以使逻辑库构建单元1324重新根据视力特征类型,构建逻辑运算公式。
在本申请实施例中,逻辑库构建单元1324会得到一个前提对多个结论的逻辑运算公式,例如,视力特征类型为A,电波频率为80-115次/分钟或60-100次/分钟。此时,推理系统1322根据逻辑推理的方式确定出多个电波频率。这意味着,推理系统1322会推理出多个电针设备运行数据。下面详细阐述如何根据推理系统1322确定的多个电针设备运行数据,得到一个电针设备运行数据。
在本申请实施例中,如图5所示,推理系统1322通过对多个案例的检索、案例重用、案例修正与案例保存,从而构建解决方案的案例库集,并提取该案例集合的规则。案例检索是指从知识库1321中搜索逻辑库构建单元1324所使用的具有相同前提的案例,以及医护终端120发送的历史视功能参数,这些案例和历史视功能参数构成一个案例集。案例重用是指从搜索出的案例集中寻找解决方案,重用满足需求的方案,或者修正相应案例,或者整合各个案例得到新方案,使之满足需求后重用。案例修正是指根据修正规则结合实际问题来对检索得到的解决方案进行有效修改。案例保存是指通过合适的表示方法、存储方式存储有重用价值的新案例。而在推理系统1322进行案例推理的过程中,每一个新案例都可能被保存,成为知识库1321的信息源,随着新案例的积累,知识库也在进行更新与扩展,其适应性也随之提高。
下面以表1中的例子为例,进行阐述:如下表1所示,推理系统1322得到的三种电子针灸方法分别为方法1、方法2和方法3。推理系统1322需要根据上述三种电针设备运行数据,得到一个电针设备运行数据。假设,A、B、C、D四个穴位中,穴位A、B和C需要同时施针,穴位D可以单独施针。施针时电针需要刺入人体内,为了保证用户的安全,施针电流统一设置成1-1.5mA。
施针时各个电针均独立的刺激相应的穴位,因此理论上施针时各个穴位的电波频率可以不同。在本申请实施例中,穴位A、C、D分别有各自对应的电波频率。鉴于针时各个穴位的电波频率可以不同,推理系统1322会直接利用方法1、方法2和方法3中的电波频率作为最优方案里穴位A、C、D的电波频率。但穴位B在电波频率的选择上显然与其他穴位不同,因为穴位B对应两种电波频率,此时B穴位的最优电波频率为方法1的电波频率和方法2的电波频率的交集,即100-115次/分钟。由于穴位A、B、C需要同时施针,则施针时间为方法1和方法2的施针时间的交集,即10-15min。而穴位D由于需要独立施针,其施针时间为方法3的施针时间。
表1
综上所述,推理系统1322向电针设备140发送电针设备运行数据4,即该次电子针灸的穴位组合,以及电针参数取值范围,如表2所示:
表2
需要说明的是,表2表示的是一次电针设备运行数据4,其执行顺序可以是ABCD。也可以是ABC三个穴位同时执行,然后再执行穴位D。
之后,电针设备140根据接收到的电针设备运行数据对用户进行电子针灸。
在本申请的一个实施例中,电子针灸设备140在对用户做完电子针灸之后,检测设备110会再次对用户进行检测,以获取新的生理数据,包括血氧、血压、脉搏等,并将新的生理数据发送给神经网络单元133,以进行下一轮电针参数的调整。
本领域技术人员可以理解的是,上述方式仅适合特定情况,即多种电针设备运行数据中部分参数,如电波频率或施针时间存在交集的情况。然而,如果电针设备运行数据中的部分参数,并不存在交集,那么可以通过以下方式确定一个电针设备运行数据。下面详细阐述:如表3所示,
表3
方法1与方法2的施针穴位相同,但电波频率的取值范围不存在交集,针对每一个取值范围生成一个电针设备运行数据。因此,推理系统1322向电针设备140发送该次电子针灸的穴位组合,以及电针参数取值范围,如表4和表5所示:
表4
表5
表4、表5分别对应一种电针设备运行数据。表4、表5中,可以分别对穴位A、B、D按照顺序执行,也可以同时执行。
图1中,电子针灸设备140在接受到多个电针设备运行数据时,电子针灸分别以各个电针设备运行数据对用户进行施针,同时将各个电针设备运行数据的运行序号和视力特征类型标识发送给电针方式选择单元150。
电针方式选择单元150接收个电针设备运行数据的运行序号和视力特征类型标识时,与检测设备110建立连接,以使检测设备110暂时切断与神经网络单元133的连接,同时将针灸后的生理数据发送给电针方式选择单元150。电针方式据选择单元150根据针灸后的生理数据,确定脑部氧合血红蛋白变化量最大的电针设备运行数据为目标数据。
之后,电针方式选择单元150根据运行序号,向检测设备110发送指令以使检测设备110将目标电针设备运行数据对应的检测结果发送给神经网络单元133,并断掉与检测设备的连接。如此,检测设备110恢复与神经网络单元133的连接,并将目标数据对应的检测结果发送给神经网络单元133。同时,电针方式选择单元150将最优电针设备运行数据及其对应的视力特征类型标识转化成新的电子针灸案例,并将新的电子针灸案例添加到电针数据获取单元132中的知识库1321中。
综上所述,本申请实施例在对用户实施针灸的同时,实时获取用户的生理数据,并根据实时的生理数据,对电针设备运行数据进行实时调整,以提高针灸效果。
在本申请实施例中,用户自身的条件对视力特征具有极大的影响,以至于训练样本中的视力特征类型标识不能包括所有视力特征。为了解决上述问题,神经网络单元133基于增量线性判别式分析算法,实时将新的视力特征及其对应的数据加入到训练样本中,从而保证人工智能算法的结果的准确性。具体实现方式如下:
神经网络单元133将接收到当前视功能参数和生理数据添加到训练样本中,形成新的训练数据。之后根据新的训练数据,更新当前神经网络的类内散度矩阵和类间散度矩阵。最后,根据更新后的类内散度矩阵和类间散度矩阵,更新神经网络模型。
对于电针数据获取单元132,在使用过程中,电针数据获取单元132可能得到多个电针设备运行数据,但电针数据获取单元132无法确定哪一个电针设备运行数据最适合当前用户。因此,在本申请实施例中,电针方式选择单元150根据检测设备110反馈的生理数据,确定最适合当前用户的电针设备运行数据,并根据该电针设备运行数据及其电针参数,生成新的电子针灸案例或经验数据。最后,电针方式选择单元150将新的电子针灸案例或经验数据发送给电针数据获取单元132中的知识库1321。如此,电针数据获取单元132中的推理系统就可以根据新的电子针灸案例或经验数据调整其推理方式。
综上所述,通过实时检测用户生理数据,实现训练样本实时更新,从而提高了视力特征编码单元131和电针数据获取单元132选择电针设备运行数据的准确性。
通过本发明实施例实现了自动分析用户皮层活动强度,根据分析结果筛选最佳针刺强度、频率和穴位组合,实现了智能选择穴位进行电针,能够指导临床方案优化。
在本申请的一个实施例中,电子针灸设备包括:采集模块、图像处理模块和穴位定位模块;
其中,采集模块用于采集用户的面部图像。图像处理模块用云根据用户的面部图像,确定用户的眼镜区域的边界。所述穴位定位模块用于根据眼镜区域的边界确定眼部穴位在眉眼图像中的具体位置。
具体地,由于眼部各穴位在面部都有着相对应的位置,例如,位于面部目内眦角稍上方凹陷处的晴明穴、位于面部眉毛内侧边缘凹陷处的攒竹穴、位于面部眉梢凹陷处的丝竹空穴、位于面部目外眦旁的瞳子髎穴、位于眼球与眶下缘之间的承泣穴、位于前额两侧外眼角延长线上方的太阳穴、位于面部眶下缘外1/4与眶下缘内3/4交界处的球后穴以及位于额部瞳孔直上眉毛中的鱼腰穴等。因此,在对三维面部图像进行图像识别后,图像处理模块可以在该面部图像中识别出眼睛、眉毛、眼眶的位置,然后可以通过预设的多个眼部穴位在面部的位置关系,即各眼部穴位与各器官之间的位置关系,来确定出各眼部穴位在面部图像中的位置。例如,在确定晴明穴的位置时,可以首先在面部图像中识别出眼睛的位置,然后在眼睛中确定內眦的位置,即上下睑缘于内侧端的会合处。进而确定內眦的中心,內眦中心靠近面部内侧的预设距离处即为晴明穴的位置。其中,预设距离可以根据用户內眦的大小以及年龄来确定。比如,內眦中心距离內眦边缘最远处的距离,再加上预设的用户年龄对应的距离,两者的和即为预设距离。而在确定攒竹穴时,只需要在面部图像中识别出眉毛的位置,然后在眉毛内端的上边缘处即为攒竹穴的位置。其他穴位的确定方法与上述穴位的确定方法的本质类似,在此不再赘述。
为了对各穴位进行定位,需要对面部图像进行图像处理,以在该面部图像中确定出人眼以及眉毛的位置后,根据人眼和眉毛的位置对各穴位进行定位。其中,为方便描述,将人眼以及眉毛的区域合称为眉眼区域。
在进行图像识别时,首先可以通过训练相应的定位模型,来对眉眼区域进行粗定位。在训练定位模型时,可以预先采集若干个包含眉眼区域的面部图像作为训练样本,将面部图像作为输入,眉眼区域作为输出,对该模型进行训练。其中,为减少识别时的工作量,以及减少颜色信息对识别的影响,可以将面部图像灰度化后再输入至模型中。在下述实施例中,如无特殊说明,则图像均为进过灰度化处理后的图像。
其中,分类器可以由AdaBoost学习算法训练得到,并通过多级分类器结构来实现。在AdaBoost算法中,每个训练样本均被赋予一个权重。在每一轮的迭代过程中,如果某个训练样本能被本轮的弱分类器正确分类,那么在学习下一轮的弱分类器之前,需要减小这个样本的权重,从而降低该样本的重要性。反之,提高被本轮弱分类器误判的样本的权重,使得新一轮的训练主要围绕那些无法被正确分类的样本。
通过对面部图像进行粗定位,可以获取包含眉眼区域的眉眼图像。在眉眼图像中,可以首先对眼睛区域进行定位,以确定眼睛区域在眉眼图像中的位置。
其中,可以从横向和纵向两个方向对眼睛区域进行定位。由于人眼不论在横向还是纵向都是人脸中变化最显著的区域,因此,可基于人脸中灰度变化来定位人眼区域。
在从横向对眼睛区域进行定位时,可以首先根据眉眼图像的大小来构造横向算子。在构造横向算子时,根据眉眼图像中每行的像素个数,得到像素数量指标w,并根据w的不同,得到横向算子。例如,w可以为每行所包含的像素个数n除以一个固定数再四舍五入,然后再加另一固定数值,且w为大于1的奇数。
在得到w后,若w的值为5,横向算子可以是[1,1,0,-1,-1],若w的值为9,横向算子可以是[1,1,1,1,0,-1,-1,-1,-1],并依次类推。
在得到横向算子后,将该横向算子与眉眼图像卷积,得到能表达眉眼图像的横向灰度变化曲线。在眉眼区域中,由于眼睛所在的横向上,包含有虹膜、巩膜等结构,灰度变化相对于其他位置更明显,所以可以将该眉眼图像的横向灰度变化曲线中的最大值,作为眼睛区域横向上的中心位置。在确定了眼睛区域的在横向上的中心位置后,可以根据该中心位置确定眼睛区域的上边界以及下边界,以确定出横向上眼睛区域所在的位置。
具体地,可以根据该眉眼图像的横向灰度变化曲线中的最大值,来确定上边界以及下边界。例如,在该眉眼图像的横向灰度变化曲线中最大值在眉眼图像所对应的位置处,分别向上以及向下,直至到达该眉眼图像的横向灰度变化曲线中最大值的预设比例处,例如最大值的一半处,作为眼睛区域的上边界以及下边界。即,在上边界以及下边界内的区域,为确定了横向眼睛区域。
在确定了眼睛区域的横向位置后,可以根据上边界以及下边界,在眉眼图像中进行截取,得到根据横向位置确定的横向位置图像,并在该图像中确定眼睛区域的纵向位置。
在确定眼睛区域的纵向位置时,先通过横向位置图像,针对横向位置图像中每个像素,设其横坐标为x0,计算该横向位置图像在区间[y1,y2]上的纵向灰度积分函数,该纵向灰度积分函数的公式可以是:
其中,y1与y2指的是图像的上边界以及下边界所对应的坐标,图像在坐标系中的位置可以是任意的,例如,将图像的左下角作为原点,或将图像的中心点作为原点等,在此不做限定。由于眼睛区域结构比较固定,虹膜、巩膜等区域的亮度差异较明显,因此在虹膜、巩膜的边界处,纵向灰度积分函数会出现波峰或波谷。再结合先验知识中的眼睛在已确定出的区域中的大致位置,即可将纵向灰度积分函数最外侧的两个波峰所对应的位置作为眼睛区域在纵向上的左边界以及右边界。其中,先验知识指的是,根据人体生理结构等现有的成熟技术,来确定眼睛区域在图像中的大致位置。
在确定了眼睛区域的横向位置以及纵向位置,即在确定了眼睛区域在眉眼图像中上边界、下边界、左边界以及右边界后,就确定了眼睛区域。然后在眉眼图像中进行截取,得到眼睛图像。其中,眼睛图像包括左眼图像以及右眼图像,由于在后续对左眼图像和右眼图像进行的处理类似,为方便描述,将左眼图像与右眼图像都称为眼睛图像。
在得到眼睛图像后,对眼睛图像内的眼睛的边缘进行识别,以进一步确定眼睛的形状、位置。
具体地,可以首先对眼睛的边缘进行粗定位,以确定边缘像素的位置。在眼睛图像中构建坐标系,该坐标系原点的位置不做限定。然后,针对眼睛图像中的每个像素,计算每个像素在灰度图像I(x,y)沿梯度方向上的二阶方向导数。其中,该梯度方向为垂直于人眼边缘的方向。然后根据上述的二阶方向导数计算得到各像素点的Laplacian算子,将Laplacian算子在函数图像上的过零点的像素点记作边缘像素。
通过Laplacian算子对眼睛边缘进行定位,只能将边缘的定位精度精确到像素级别。然而实际的人脸在图像中成像时,实际边缘不能与像元的边缘完全一致。而眼睛图像在整个面部图像中占比很小,若是在采集面部图像时采集设备的精度较低,那么在确定眼睛的边缘时,可能会产生较大的误差。因此,本申请实施例在确定边缘像素的位置后,在每个边缘像素中对眼睛的边缘进行进一步的精确定位,以确定其亚像素位置。
具体地,因为每个像素点的面积已经很小,所以可以将在每个边缘像素中的代表边缘的图像看作该边缘像素中的一条直线。将直线的公式定义为:
xcosα+ysinα=l
其中,l是坐标中心点距离边缘的距离,α是边缘梯度方向与x轴的夹角。然后,可以将二维阶跃边缘的公式定义为:
其中,a是边缘内侧的灰度值,b是边缘高度。则以像素(x,y)为中心,二维阶跃边缘的亚像素位置(x1,y1)可以表示为:
此时,即确定了眼睛边缘的位置。
在眼睛图像中确定眼睛边缘的位置后,可以将眉眼图像中眼睛区域的上边界靠上的部分区域作为眉毛待选区域。将该区域在眉眼图像中截取出来,作为眉毛待选图像。在眉毛待选图像中进行识别,以确定眉毛所在的位置。
具体地,在得到眉毛待选图像后,可以通过直方图均衡化的方式对眉毛待选图像进行图像增强。然后获得该眉毛待选图像的灰度直方图,并在灰度直方图中,选择多个待选灰度值,并将这多个待选灰度值按从小到大的顺序排列,得到待选灰度值集合。其中,可以选择灰度直方图中作为波谷的灰度值作为待选灰度值,即,待选灰度值在灰度直方图中对应的值低于两侧灰度值对应的值。
然后,根据待选灰度值集合中的每个待选灰度值,对眉毛待选图像进行二值化处理,得到多个二值化处理后的眉毛待选图像。其中,在进行二值化处理时,可以定义为:将灰度值小于待选灰度值的像素的灰度值调整为255,即白色;将灰度值大于或等于待选灰度值的像素的灰度值调整为0,即黑色。为方便描述,以下将二值化处理后的眉毛待选图像简称为二值化眉毛待选图像。在这多个二值化眉毛待选图像中,由于进行二值化时灰度值的不同,其图像所呈现的内容也不同,即,在图像中黑色与白色所占的范围不同。针对每个二值化眉毛待选图像,若像素满足灰度值小于该二值化眉毛待选图像对应的灰度值,即在二值化眉毛待选图像中的白色像素,则称该像素为满足像素,并将满足像素构成的区域称为有效区域,即在二值化眉毛待选图像中的白色区域。将剩余的区域称为无效区域,即在二值化眉毛待选图像中的黑色区域。
针对每个二值化眉毛待选图像,若有效区域与无效区域的面积比小于预设阈值,例如2/3,则说明该二值化眉毛待选图像中的有效区域面积没有过大,可以将该二值化眉毛待选图像在进行二值化处理时所对应的待选灰度值记作有效灰度值,并获取所有有效灰度值对应的二值化眉毛待选图像。
将所有有效灰度值对应的二值化眉毛待选图像进行图像融合。在融合过程中,若第一有效区域完全包含在第二有效区域内,则第二有效区域与第一有效区域则会融合成为第二有效区域,此时,称作第二有效区域包含第一有效区域。同样的,若第二有效区域完全包含在第三有效区域内,则第二有效区域、第一有效区域、第三有效区域会融合成为第三有效区域,此时,称作第三有效区域包含第一有效区域和第二有效区域。在将所有的二值化眉毛待选图像融合完毕后,若一个有效区域内包含的有效区域的数量大于预设阈值,例如,大于3,则称该融合完毕后的该有效区域为候选有效区域。
根据公式:
计算得到所有候选有效区域的信息熵。其中,H(A)是候选有效区域的信息熵,p(xj)是在该候选有效区域中灰度值为j的概率。因为眉毛相对于皮肤来说,所包含的信息更多,所以可以将在各候选有效区域中信息熵最大的区域作为眉毛区域。在获取了眉毛区域后,可以采用与上述实施例中,在眼睛区域中确定眼睛边缘类似的方法,在眉毛区域中确定眉毛的边缘。此时,即完成了对眉毛以及眼睛的位置和形状的确定。然后根据各穴位与眼睛、眉毛之间的位置关系,即可确定出各穴位在面部图像中的位置。
其中,在根据各穴位与眼睛、眉毛之间的位置关系确定穴位时,可以直接在面部图像上根据预设的位置关系确定,也可以在面部图像上构建网格,然后根据网格来确定穴位的位置。例如,可以将面部图像按横向划分为A行,按纵向划分为B列,得到A*B网格的面部图像。由于已经在面部图像中确定出了眼睛、眉毛的边缘,即确定了眼睛、眉毛边缘在网格中所对应的格子。此时可以根据预设的穴位所在的格子与眉毛边缘格子之间的位置关系,得到穴位所对应的格子,即确定了穴位的位置。
另外,除了通过对面部图像进行图像识别,确定眼睛、眉毛的位置和形状后,并根据各穴位和眼睛、眉毛之间的位置关系来确定出各穴位的位置,也可以通过训练相应的识别模型直接识别各穴位的位置。
具体地,可以预先采集多个已经确定眼部穴位位置的三维面部模型作为训练样本。其中,在采集训练样本时,可以通过对多个用户的面部进行三维扫描后得到相应的多个三维面部模型,然后可以由人工分别在这多个三维面部模型上确定出各眼部穴位的位置,并将确定了眼部穴位位置的三维面部模型作为训练样本,用于训练识别模型。然后,通过相应的算法来对识别模型进行训练。其中,采用的算法可以是卷积神经网络或深度神经网络算法等,在此不做进一步限定。在训练完识别模型后,可以采集用户的三维面部模型。然后通过已经训练好的该识别模型,在该三维面部模型上识别出眼部穴位的位置。
此外,在采集到面部图像之后,电子针灸设备首先判断获取到的面部图像是否为模糊图像,并在判断出面部图像为模糊图像时,对确定出的模糊图像进行图像去模糊处理,以提高图像的清晰度,从而提高后续进行图像识别的准确率。
具体的,首先,由于对非模糊图像进行处理可能会破坏图像原本的质量,因此,电子针灸设备可根据下述公式确定用面部图像的梯度图:
gx(i,j)=|f(i+1,j)-f(i,j)|
gy(i,j)=|f(i+1,j)-f(i,j)|
并根据下述公式,判断用面部图像是否为模糊图像。
其中,gx(i,j)和gy(i,j)分别是用眼图像f在x和y方向的梯度图,m,n分别是用眼图像f在x和y方向的行列数,Gnum是x方向梯度图和y方向梯度图的非零梯度值的个数总和。当S<7时,电子针灸设备可判断该用眼图像为模糊图像。其中,该数值7可通过实验确定。
其次,电子针灸设备可根据下述公式确定出模糊图像中的前景模糊图像:
其中,q(x,y)为前景模糊图像,c为第三预设值,d为第四预设值,N是模糊图像中位置为(x,y)的像素的邻域内的像素的总数,h(x,y)是模糊图像中位置为(x,y)的像素的邻域内的像素点的集合,I(s,t)是模糊图像中位置为(x,y)的像素的灰度值,m(x,y)是I(x,y)的均值。
最后,电子针灸设备可采用高斯滤波对确定出的前景模糊图像进行处理,得到前景清晰图像,再将该前景清晰图像作为经过图像去模糊处理后的面部图像,并对处理后的面部图像进行图像识别。
本申请实施例提供了一种基于神经反馈的大脑视觉检测分析方法,包括如下步骤:
步骤1、检测设备获取用户的生理数据和视功能参数,生理数据包括:氧合血红蛋白浓度变化数据和/或脱氧血红蛋白浓度变化数据。
步骤2、第一服务器根据当前视功能参数和生理数据,更新当前训练样本和当前神经网络模型;通过更新后的神经网络模型,以当前视功能参数和生理数据为输入,输出用户的视力障碍类型和视力障碍等级。
步骤3、第一服务器根据视力障碍类型和视力障碍等级,确定至少一个电子针灸数据;第一服务器预存多个电子针灸数据,电子针灸数据用于指示视力障碍类型和/或视力障碍等级与电针参数、施针穴位和针灸种类的对应关系;根据至少一个电子针灸数据,为用户匹配对应的电针设备运行数据,电针设备运行数据包括:电针参数、针灸种类和施针穴位。
步骤4、电子针灸设备根据电针设备运行数据,为用户进行电子针灸。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (13)
1.一种基于神经反馈的大脑视觉检测分析设备,其特征在于,所述设备包括检测设备、第一服务器和电子针灸设备;
所述检测设备用于获取用户的生理数据和视功能参数,所述生理数据包括:氧合血红蛋白浓度变化数据和/或脱氧血红蛋白浓度变化数据;
所述第一服务器用于根据所述当前视功能参数和所述生理数据,更新当前训练样本和当前神经网络模型;通过更新后的神经网络模型,以所述当前视功能参数和所述生理数据为输入,输出所述用户的视力障碍类型和视力障碍等级;
所述第一服务器还用于根据所述视力障碍类型和所述视力障碍等级,确定至少一个电子针灸数据;所述第一服务器预存多个电子针灸数据,所述电子针灸数据用于指示所述视力障碍类型和/或视力障碍等级与电针参数、施针穴位和针灸种类的对应关系;根据所述至少一个电子针灸数据,为所述用户匹配对应的电针设备运行数据,所述电针设备运行数据包括:电针参数、针灸种类和施针穴位;
所述电子针灸设备用于根据所述电针设备运行数据,为所述用户进行电子针灸。
2.根据权利要求1所述的设备,其特征在于,所述设备还包括:医护终端;
所述医护终端用于获取视力参考数据,所述视力参考数据包括:所述用户的历史视力状况数据和/或影响视力的数据;其中,所述影响视力的数据包括:影响视力的人的体质数据和影响视力的人的生活方式数据;
所述第一服务器用于接收所述视力参考数据,并根据所述视力障碍类型、所述视力障碍等级和所述视力参考数据,确定所述用户对应的视力特征类型标识,所述视力特征类型标识,用于指示用户视力状况所属的类型;根据所述视力特征类型标识,确定至少一个所述电子针灸数据。
3.根据权利要求2所述的设备,其特征在于,
所述第一服务器用于从所述视力参考数据中提取至少一个关键词,所述关键词包括所述用户的历史视力状况关键词、体质关键词和生活方式关键词中的一个或多个;根据各所述关键词所述,分别确定对应的视力影响因子,所述视力影响因子包括:所述用户的历史视力状况、体质和生活方式中的一个或多个;通过数字、字母或者两者的结合,分别表征所述视力障碍类型、所述视力障碍等级和所述视力影响因子;利用所述视力障碍类型、所述视力障碍等级和各所述视力影响因子对应的数字、字母或者两者的结合,生成所述用户对应的视力特征类型标识。
4.根据权利要求3所述的设备,其特征在于,
所述第一服务器还用于根据所述视力影响因子对应数值的大小,分别为各所述视力影响因子配置修正参数;根据各所述修正参数,确定总修正参数;根据所述总修正参数的对应数值,修正所述视力特征类型标识。
5.根据权利要求2所述的设备,其特征在于,
所述第一服务器用于根据所述视力特征类型标识,确定多个查询关键词;在知识库中,分别确定各所述电子针灸数据中含有的所述查询关键词的个数;根据所述查询关键词的个数,从知识库中获取与所述视力特征类型标识相似度大于阈值的电子针灸数据,其中,所述知识库预先设置在所述第一服务器中。
6.根据权利要求2所述的设备,其特征在于,
所述第一服务器用于在所述至少一个电子针灸数据中,确定至少一个逻辑运算公式;通过所述至少一个逻辑运算公式,以所述视力特征类型标识中的视力障碍类型、所述视力障碍等级和所述视力参考数据为输入,输出至少一个所述电针参数、至少一个所述施针穴位和至少一个所述针灸种类;根据所述至少一个所述电针参数、至少一个所述施针穴位或至少一个所述针灸种类,确定至少一个所述电针设备运行数据。
7.根据权利要求6所述的设备,其特征在于,
所述第一服务器用于根据所述视力特征类型标识,从知识库中获取理论施针穴位集合和理论针灸种类集合,其中,所述知识库预先设置在所述第一服务器中;
在所述第一服务器得到一个所述电针设备运行数据时,所述第一服务器用于分别检测所述施针穴位和所述针灸种类是否属于所述理论施针穴位集合和所述理论针灸种类集合;
在检测结果为否时,所述第一服务器用于根据所述视力特征类型标识,重新确定至少一个电子针灸数据;根据所述重新确定的至少一个电针灸数据,确定至少一个新的逻辑运算公式,并根据各个所述新的逻辑运算公式,重新输出至少一个电针设备运行数据。
8.根据权利要求7所述的设备,其特征在于,
所述第一服务器还用于检测是否为初次获取所述用户的理论施针穴位集合和理论针灸种类集合;
在确定为初次获取时,所述第一服务器用于从所述知识库预设查询起始节点开始查询所述理论施针穴位集合和所述理论针灸种类集合,并获取所述理论施针穴位集合和所述理论针灸种类集合;
在确定不是初次获取时,所述第一服务器用于确定所述用户的最近一次的获取记录;根据所述获取记录,在所述知识库确定所述用户的查询起始节点,并从所述用户的查询起始节点开始查询所述理论施针穴位集合和所述理论针灸种类集合,并获取所述理论施针穴位集合和所述理论针灸种类集合。
9.根据权利要求6所述的设备,其特征在于,
在所述第一服务器根据所述至少一个逻辑运算公式,确定多个所述电针灸方式时,所述第一服务器用于接收来自所述医护终端的所述用户的历史视力状况数据;根据所述至少一个电子针灸数据和所述用户的历史视力状况数据,构建数据库;基于所述数据库中的数据,通过数据重组和/或数据修正,确定一个或多个所述电针设备运行数据。
10.根据权利要求9所述的设备,其特征在于,所述设备还包括:第二服务器;
在所述第一服务器根据所述至少一个电子针灸数据和所述用户的历史视力状况数据,确定多个所述电针设备运行数据时,所述第一服务器用于将各个所述电针设备运行数据发送给所述电子针灸设备;
所述电子针灸设备用于分别给各个所述电针设备运行数据分配序号;按照所述序号依次执行各个所述电针设备运行数据,并将各个所述电针设备运行数据以及相应的序号发送给第二服务器;
所述第二服务器用于在接收到多个所述电针设备运行数据以及相应的序号时,向所述检测设备发送第一指令,以便于所述检测设备与所述第二服务器建立连接,并与所述第一服务器断开连接;接收来自所述检测设备的所述多个电针设备运行数据对应的多个脑部氧合血红蛋白变化量,并确定最大脑部氧合血红蛋白变化量对应的电针设备运行数据为目标数据;向所述检测设备发送第二指令,以便于所述检测设备与所述第二服务器断开连接,与所述第一服务器建立连接,并向所述第一服务器发送所述目标数据对应的生理数据。
11.根据权利要求1所述的设备,其特征在于,所述电子针灸设备包括:采集模块、图像处理模块和穴位定位模块;
所述采集模块用于采集所述用户的面部图像;
所述图像处理模块用于在所述用户的面部图像,确定用户眉眼图像;其中,所述眉眼图像为包含所述用户的眉毛和眼睛区域的图像;对所述眉眼图像进行灰度处理;根据所述灰度处理后的眉眼图像的大小构造横向算子,且所述横向算子为奇数;将所述横向算子与所述灰度处理后的眉眼图像卷积,得到眉眼图像的横向灰度变化曲线;将所述眉眼图像的横向灰度变化曲线的最大值,作为眼睛区域横向上的中心位置;在所述眼睛区域的横向中心位置处,将沿纵向分别向上、下直至到达预设比例的两个位置,作为眼睛区域的上边界和下边界;根据所述眼睛区域的上边界和下边界,对所述眉眼图像进行截取,得到眼睛区域的横向位置图像;对所述横向位置图像的左半部分图像或右半部分图像中的每一个像素,计算在所述上边界和下边界之间的纵向灰度积分函数,得到纵向灰度积分函数图像;在所述纵向积分函数图像的所有的波峰和波谷中,将在横向位置图像中最左侧和最右侧的波峰或波谷所对应的位置,作为眼睛区域在纵向上的左边界和右边界;
所述穴位定位模块用于根据所述眼睛区域的左边界和右边界,对所述横向位置图像进行截取,确定所述眉眼图像上的眼睛区域;根据已确定的所述眼睛区域,以及所述多个眼部穴位在人面部上与所述眼睛区域之间对应的位置关系,确定所述面部图像上对应的所述多个眼部穴位的位置信息。
12.根据权利要求1所述的设备,其特征在于,
所述当前视功能参数包括:视锐度、屈光度、屈光参差、周边视力、融像功能参数、立体视功能参数、同时视视功能参数、噪音排除能力参数、空间对比敏感度中的一个和多个。
13.一种基于神经反馈的大脑视觉检测分析方法,其特征在于,包括:
检测设备获取用户的生理数据和视功能参数,所述生理数据包括:氧合血红蛋白浓度变化数据和/或脱氧血红蛋白浓度变化数据;
第一服务器根据所述当前视功能参数和所述生理数据,更新当前训练样本和当前神经网络模型;通过更新后的神经网络模型,以所述当前视功能参数和所述生理数据为输入,输出所述用户的视力障碍类型和视力障碍等级;
所述第一服务器根据所述视力障碍类型和所述视力障碍等级,确定至少一个电子针灸数据;所述第一服务器预存多个电子针灸数据,所述电子针灸数据用于指示所述视力障碍类型和/或视力障碍等级与电针参数、施针穴位和针灸种类的对应关系;根据所述至少一个电子针灸数据,为所述用户匹配对应的电针设备运行数据,所述电针设备运行数据包括:电针参数、针灸种类和施针穴位;
电子针灸设备根据所述电针设备运行数据,为所述用户进行电子针灸。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910704737.4A CN110585591B (zh) | 2019-07-31 | 2019-07-31 | 一种基于神经反馈的大脑视觉检测分析设备和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910704737.4A CN110585591B (zh) | 2019-07-31 | 2019-07-31 | 一种基于神经反馈的大脑视觉检测分析设备和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110585591A true CN110585591A (zh) | 2019-12-20 |
CN110585591B CN110585591B (zh) | 2022-11-01 |
Family
ID=68853182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910704737.4A Active CN110585591B (zh) | 2019-07-31 | 2019-07-31 | 一种基于神经反馈的大脑视觉检测分析设备和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110585591B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111588351A (zh) * | 2020-06-09 | 2020-08-28 | 天津大学 | 一种基于功能近红外脑网络的中医针刺得气智能检测系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080228242A1 (en) * | 2003-05-01 | 2008-09-18 | California Institute Of Technology | Method and system for training a visual prosthesis |
CN104207931A (zh) * | 2013-06-05 | 2014-12-17 | 上海中医药大学 | 人脸面部穴位精准定位和针灸处方学习方法 |
CN104958833A (zh) * | 2014-08-26 | 2015-10-07 | 毕宏生 | 一种治疗弱视的便携可调式针灸仪 |
CN106821742A (zh) * | 2017-02-14 | 2017-06-13 | 包磊 | 一种针灸模拟方法及装置 |
CN108364687A (zh) * | 2018-01-10 | 2018-08-03 | 北京郁金香伙伴科技有限公司 | 眼球状态预测方法及预测模型构建方法和设备 |
CN109085918A (zh) * | 2018-06-28 | 2018-12-25 | 天津大学 | 基于肌电的针灸行针手法训练方法 |
-
2019
- 2019-07-31 CN CN201910704737.4A patent/CN110585591B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080228242A1 (en) * | 2003-05-01 | 2008-09-18 | California Institute Of Technology | Method and system for training a visual prosthesis |
CN104207931A (zh) * | 2013-06-05 | 2014-12-17 | 上海中医药大学 | 人脸面部穴位精准定位和针灸处方学习方法 |
CN104958833A (zh) * | 2014-08-26 | 2015-10-07 | 毕宏生 | 一种治疗弱视的便携可调式针灸仪 |
CN106821742A (zh) * | 2017-02-14 | 2017-06-13 | 包磊 | 一种针灸模拟方法及装置 |
CN108364687A (zh) * | 2018-01-10 | 2018-08-03 | 北京郁金香伙伴科技有限公司 | 眼球状态预测方法及预测模型构建方法和设备 |
CN109085918A (zh) * | 2018-06-28 | 2018-12-25 | 天津大学 | 基于肌电的针灸行针手法训练方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111588351A (zh) * | 2020-06-09 | 2020-08-28 | 天津大学 | 一种基于功能近红外脑网络的中医针刺得气智能检测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110585591B (zh) | 2022-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pilz et al. | Local group invariance for heart rate estimation from face videos in the wild | |
Nicolas-Alonso et al. | Brain computer interfaces, a review | |
CN104871160B (zh) | 用于感觉和认知剖析的系统和方法 | |
Li | Understanding vision: theory, models, and data | |
Mokhayeri et al. | Mental stress detection using physiological signals based on soft computing techniques | |
CN110585592B (zh) | 一种个性化电子针灸装置及其生成方法与生成装置 | |
Li et al. | EEG-based mild depressive detection using differential evolution | |
CN108618749A (zh) | 基于便携式数字化眼底照相机的视网膜血管三维重建方法 | |
CN112233087A (zh) | 一种基于人工智能的眼科超声疾病诊断方法和系统 | |
CN110338906B (zh) | 用于光交联手术的智能治疗系统及建立方法 | |
CN114999237A (zh) | 一种智慧教育互动教学方法 | |
CN113143261B (zh) | 基于肌电信号的身份识别系统、方法及设备 | |
Salazar-Jurado et al. | Towards the generation of synthetic images of palm vein patterns: A review | |
CN116433967B (zh) | 一种面向无创神经调控技术的个性化靶点选择方法 | |
CN110585591B (zh) | 一种基于神经反馈的大脑视觉检测分析设备和方法 | |
CN110503636A (zh) | 参数调整方法、病灶预测方法、参数调整装置及电子设备 | |
Zhao et al. | Image processing strategies based on deep neural network for simulated prosthetic vision | |
CN111583248B (zh) | 一种基于眼部超声图像的处理方法 | |
CN118402010A (zh) | 对人执行视力测试程序的方法和设备 | |
CN105944233A (zh) | 基于深度学习的视神经仿真方法及系统 | |
CN111144331A (zh) | 手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置 | |
CN116128767A (zh) | 一种基于生成对抗网络的可见光oct图像的清晰化方法 | |
de Souza et al. | Differential evolution based spatial filter optimization for brain-computer interface | |
Pham et al. | Attention-Aided Generative Learning for Multi-Scale Multi-Modal Fundus Image Translation | |
Al Ajrawi et al. | A hierarchical recursive feature elimination algorithm to develop brain computer interface application of user behavior for statistical reasoning and decision making |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |