CN116521844A - 一种用于ai学习的智能眼镜设备及其操作方法 - Google Patents

一种用于ai学习的智能眼镜设备及其操作方法 Download PDF

Info

Publication number
CN116521844A
CN116521844A CN202310494075.9A CN202310494075A CN116521844A CN 116521844 A CN116521844 A CN 116521844A CN 202310494075 A CN202310494075 A CN 202310494075A CN 116521844 A CN116521844 A CN 116521844A
Authority
CN
China
Prior art keywords
unit
main control
control program
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310494075.9A
Other languages
English (en)
Inventor
张秀霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202310494075.9A priority Critical patent/CN116521844A/zh
Publication of CN116521844A publication Critical patent/CN116521844A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

发明公开了一种用于AI学习的智能眼镜设备及其操作方法。为了克服现有用户看过的信息记不住,记不清,文档化慢,回忆起来所需时间长等问题。本发明通过用户佩戴AI智能眼镜收集用户目视画面中包含的文本信息,并交给属于用户自己的人工智能大语言模型(LLM)进行学习,到用户需要使用一些历史学习过的知识时,完全可以通过询问自己的大语言模型(LLM)来获得答案,节省了用户的时间。优点是:用户看到的信息均可以被直接学习和记忆下来,克服了人脑记忆的效率慢,不清晰以及文档记录的效率慢问题,在用户需要用的时候可以直接通过AI学习智能眼镜系统直接获取答案,节省用户时间。

Description

一种用于AI学习的智能眼镜设备及其操作方法
技术领域
本发明涉及人工智能领域,尤其涉及一种用于AI学习的智能眼镜设备及其操作方法。
背景技术
随着大语言模型(LLM)的飞速发展,涌现了ChatGPT,文心一言类的智能应用,他们可以根据互联网上公开的信息回答用户的所提出的问题,但是对用户自己所拥有的知识却无法回答。当前用户通常采用人脑记忆或文档记录的方式记录看到的信息。受限于人脑记忆的效率和用户编写文档的效率,导致用户每天看到的大量信息并没有记忆下来,导致用户在使用这些信息时,还需要重新查资料或者文档,造成较大的时间成本。
本方案通过用户佩戴AI智能眼镜收集用户目视画面中包含的文本信息,并交给属于用户自己的大语言模型(LLM)进行学习,当用户需要使用一些看过的知识时,完全可以通过询问自己的大语言模型(LLM)来获得答案,节省了时间。
发明内容
本发明的目的在于解决现有用户对每天看到的信息采用写文档或者人脑记忆的方式,受限于大脑记忆的效率和用户编写文档的效率,导致大量信息并没有在脑子中存储下来,进而导致用户在使用这些信息时,还需要重新查资料或者文档,造成较大的时间成本;本发明的目的在于帮助用户记下看到的信息,并在使用时节省用户时间。
本发明上述的技术问题主要通过下述的技术方案得以解决的:
本发明包括如下步骤:
学习步骤:用户佩戴并开启AI智能眼镜,通过手势控制或触摸电容开关的方式对用户视野画面中包含的信息进行提取,并信息传递给大语言模型(LLM)进行学习;
回答步骤:用户佩戴并开启AI智能眼镜,通过手机应用界面或者眼镜提出问题,并获得大语言模型(LLM)的回答。
采用本方案通过非常便捷、直观的操作,实现了用户看到的信息进行记忆和学习,减小了用户的在回忆这些信息时的时间成本。
作为优选,所述用于AI学习的智能眼镜设备如图3所示,包括:
智能眼镜设备:智能眼镜上集成了微控制器、摄像头、麦克风、扬声器和电容开关,如图1所示;
主控程序单元:根据用户的使用场景,处理信息,调用各系统模块完成工作;
硬件驱动单元:受到主控程序单元调配,负责驱动摄像头成功获取画面信息、驱动麦克风成功获取音频信息,驱动电容开关成功获取触摸信息,驱动扬声器成功反馈给用户听觉;
画面获取单元:接收主控程序单元调度,用于将获取的画面信息进行处理提升画面的可识别性,并将画面数据反馈给主控程序单元;
手势识别单元:接收主控程序单元调度,用以识别画面中的用户手势,并将识别结果反馈给主控程序单元;
光学字符识别(OCR)单元:接收主控程序单元调度,用以识别图片中的文本信息,并将文本信息反馈给主控程序单元;
语义识别单元:接收主控程序单元调度,用以识别音频中的文本信息,并将文本信息反馈给主控程序单元;
智能学习单元:接收主控程序单元调度,接收文本信息,将文本信息传递给智能学习单元的大语言人工智能模型(即LLM模型)进行学习;
手机交互单元:如图4所示,用户可通过手机界面输入文本和接收文本;将用户输入信息传递给主控程序单元,接收主控程序单元调度,显示答案信息、学习历史、对话历史等信息;
眼镜交互单元:负责用户与眼镜的直接交互操作,接收主控程序单元调度,进行对应的声音和语言提示。
作为优选,学习步骤的操作步骤为:
学习步骤(方式一),如图5所示:
步骤11:用户佩戴智能眼镜并通过USB数据线连接手机,主控程序单元调用硬件驱动单元完成对智能眼镜的连接;
步骤12:用户看向学习资料,并在视野内进行“抓取”动作,手势识别单元识别出该动作反馈给主控程序;主控程序调用画面获取单元,抓取智能眼镜摄像头捕捉的实时画面照片;
步骤13:主控程序调用光学字符识别(OCR)单元对照片的文本识别,将照片中的文字识别成文本信息;
步骤14:主控程序调用智能学习单元,将文本信息传递给LLM模型学习,并保存学习的成果和原始资料;
学习步骤(方式二),如图6所示:
步骤21:用户佩戴智能眼镜并通过USB总线连接,主控程序单元调用硬件驱动单元完成对智能眼镜的连接;
步骤22:用户看向学习资料,手指触摸电容开关(轻触1次),硬件驱动单元将用户轻触1次信息传递给主控程序;主控程序调用画面获取单元,抓取智能眼镜摄像头捕捉的实时画面照片;
步骤23:主控程序调用光学字符识别(OCR)单元对照片的文本识别,将照片中的文字识别成文本信息;
步骤24:主控程序调用智能学习单元,将文本信息传递给智能学习单元的大语言模型(LLM)学习,并保存学习的成果和原始资料。
作为优选,回答步骤的操作步骤为:
知识回答步骤(方式一),如图7所示:
步骤31:用户通过手机交互单元输入文字的方式,向手机交互单元提交问题的文本信息;
步骤32:主控程序将手机交互单元获得的问题的文本信息,传递给智能学习单元的大语言模型(LLM)进行提问;
步骤33:智能学习单元的大语言模型(LLM)输出问题的答案,标记引用的资料,并将结果返回给主控程序单元;
步骤34:主控程序单元将大语言模型的回答结果,传递给手机交互单元;
步骤35:手机交互单元将回答结果展示在手机交互单元的界面上,使用户获得答案;
知识回答步骤(方式二),如图8所示:
步骤41:用户长按电容开关(轻触长按),硬件驱动单元将用户长按信息传递给主控程序单元,主控程序单元调用硬件驱动单元开始实时获取麦克风的音频信息;
步骤42:用户使用语音提问,主控程序调用语义识别单元将用户的实时语音问题实时转换为文本信息,提问完成后结束长按电容开关;
步骤43:主控程序将手机交互单元获得的问题的文本信息,传递给智能学习单元的大语言模型(LLM)进行提问;
步骤44:大语言模型回答问题,并标记引用的资料,并将结果返回给主控程序;
步骤45:主控程序将大语言模型的回答结果,转换成音频信息,并传递给硬件驱动单元;
步骤46:硬件驱动单元通过扬声器播放包含回答结果的音频,用户接收音频信息以获得答案。
附图说明
图1是设备示意图。
图2是智能眼镜与手机关系示意图。
图3是AI学习智能眼镜系统构成示意图。
图4是手机交互单元界面示意图。
图5是学习步骤(方式一)说明图。
图6是学习步骤(方式二)说明图。
图7是知识回答步骤(方式一)说明图。
图8是知识回答步骤(方式二)说明图。
图9是实施例说明图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:本实施例的一种用于AI学习的智能眼镜设备及其操作方法,如图9所示,包括如下步骤:
步骤11:用户佩戴智能眼镜并通过USB数据线连接,主控程序单元调用硬件驱动单元完成对智能眼镜的连接;
步骤12:用户看向学习资料(例如资料上记录“付X,1992年9月29日生,厦门大学毕业”),并在视野内进行“抓取”动作,手势识别单元识别出该动作反馈给主控程序;用户也可以看向学习资料,手指触摸电容开关(轻触1次),硬件驱动单元将用户轻触1次信息传递给主控程序;主控程序调用画面获取单元,抓取智能眼镜摄像头捕捉的实时画面照片;
步骤13:主控程序调用光学字符识别(OCR)单元对照片的文本识别,将照片中的文字识别成文本信息;
步骤14:主控程序调用智能学习单元,将将文本信息传递给智能学习单元的大语言(LLM)模型学习,并保存学习的成果和原始资料;
步骤31:用户通过手机交互通过手机交互单元,用户通过输入文字的方式,向手机交互单元提交问题的文本信息,例如输入“付X今年几岁?”;
步骤32:主控程序将手机交互单元获得的问题的文本信息,传递给智能学习单元的大语言模型(LLM)进行提问;
步骤33:智能学习单元的大语言模型(LLM)回答问题:“付X1992年9月29日生,今年31岁”,标记引用的资料,并将结果返回给主控程序;
步骤34:主控程序将大语言模型的回答结果,传递给手机交互单元;
步骤35:手机交互单元将回答结果展示在手机交互单元的界面上,使用户获得答案;
步骤41:用户长按电容开关(轻触长按),硬件驱动单元将用户长按信息传递给主控程序单元,主控程序单元调用硬件驱动单元开始实时获取麦克风的音频信息;
步骤42:用户使用语音提问“付X哪个学校毕业的”,主控程序调用语义识别单元将用户的实时语音问题实时转换为文本信息;
步骤43:主控程序将手机交互单元获得的问题的文本信息,传递给智能学习单元的大语言模型(LLM)进行提问;
步骤44:智能学习单元的大语言模型(LLM)回答问题,并标记引用的资料,并将结果“付X毕业于厦门大学”返回给主控程序;
步骤45:主控程序将大语言模型的回答结果“付X毕业于厦门大学”,转换成音频信息,并传递给硬件驱动单元;
步骤46:硬件驱动单元通过扬声器播放包含回答结果的音频,用户接收音频信息以获得答案。
本发明未尽事宜为公知技术。
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。

Claims (3)

1.一种用于AI学习的智能眼镜设备,其智能眼镜设备的特征在于:
如图1所示,智能眼镜上集成了微控制器(MCU)、摄像头、麦克风、扬声器和电容开关;如图2所示,智能眼镜通过USB数据线和手机连接:手机通过USB数据线获取智能眼镜摄像头所拍摄的画面信息;手机通过USB数据线获取智能眼镜麦克风获取音频信息;手机通过USB数据线获取用户触摸智能眼镜电容开关的信息;手机通过USB数据线传递智能智能眼镜音频信息用于扬声器播放;手机通过USB数据线向智能眼镜供电。
2.根据权利要求1所述的一种用于AI学习的智能眼镜设备及其操作方法,其系统构成在于,如图3所示包括如下单元:
主控程序单元:根据用户的使用场景,处理信息,调用各系统模块完成工作;
硬件驱动单元:受到主控程序单元调配,负责驱动摄像头成功获取画面信息、驱动麦克风成功获取音频信息,驱动电容开关成功获取触摸信息,驱动扬声器成功反馈给用户听觉;
画面获取单元:接收主控程序单元调度,用于将获取的画面信息进行处理提升画面的可识别性,并将画面数据反馈给主控程序;
手势识别单元:接收主控程序单元调度,用以识别画面中的用户手势,并将识别结果反馈给主控单元;
光学字符识别(OCR)单元:接收主控程序单元调度,用以识别图片中的文本信息,并将文本信息反馈给主控程序单元;
语义识别单元:接收主控程序单元调度,用以识别音频中的文本信息,并将文本信息反馈给主控程序单元;
智能学习单元:接收主控程序单元调度,接收文本信息,将文本信息交给大语言人工智能模型(即LLM模型)进行学习;
手机交互单元:如图4所示,用户可通过手机界面输入文本和接收文本;手机交互单元将用户输入信息传递给主控程序单元,接收主控程序单元调度,显示答案信息、学习历史、对话历史等信息;
眼镜交互单元:负责用户与眼镜的直接交互操作,接收主控程序单元调度,进行对应的声音和语言提示。
3.根据权利要求1所述的一种用于AI学习的智能眼镜设备及其操作方法,其操作特征在于,包括如下步骤:
学习步骤(方式一),如图5所示:
步骤11:用户佩戴智能眼镜并通过USB数据线连接手机,主控程序单元调用硬件驱动单元完成对智能眼镜的连接;
步骤12:用户看向学习资料,并在视野内进行“抓取”动作,手势识别单元识别出该动作反馈给主控程序;主控程序调用画面获取单元,抓取智能眼镜摄像头捕捉的实时画面照片;
步骤13:主控程序调用光学字符识别(OCR)单元对照片的文本识别,将照片中的文字识别成文本信息;
步骤14:主控程序调用智能学习单元,将文本信息传递给LLM模型学习,并保存学习的成果和原始资料;
学习步骤(方式二),如图6所示:
步骤21:用户佩戴智能眼镜并通过USB总线连接,主控程序单元调用硬件驱动单元完成对智能眼镜的连接;
步骤22:用户看向学习资料,手指触摸电容开关(轻触1次),硬件驱动单元将用户轻触1次信息传递给主控程序;主控程序调用画面获取单元,抓取智能眼镜摄像头捕捉的实时画面照片;
步骤23:主控程序调用光学字符识别(OCR)单元对照片的文本识别,将照片中的文字识别成文本信息;
步骤24:主控程序调用智能学习单元,将文本信息传递给智能学习单元的大语言模型(LLM)学习,并保存学习的成果和原始资料;
知识回答步骤(方式一),如图7所示:
步骤31:用户通过手机交互单元输入文字的方式,向手机交互单元提交问题的文本信息;
步骤32:主控程序将手机交互单元获得的问题的文本信息,传递给智能学习单元的大语言模型(LLM)进行提问;
步骤33:智能学习单元的大语言模型(LLM)输出问题的答案,标记引用的资料,并将结果返回给主控程序单元;
步骤34:主控程序单元将大语言模型的回答结果,传递给手机交互单元;
步骤35:手机交互单元将回答结果展示在手机交互单元的界面上,使用户获得答案;
知识回答步骤(方式二),如图8所示:
步骤41:用户长按电容开关(轻触长按),硬件驱动单元将用户长按信息传递给主控程序单元,主控程序单元调用硬件驱动单元开始实时获取麦克风的音频信息;
步骤42:用户使用语音提问,主控程序调用语义识别单元将用户的实时语音问题实时转换为文本信息,提问完成后结束长按电容开关;
步骤43:主控程序将手机交互单元获得的问题的文本信息,传递给智能学习单元的大语言模型(LLM)进行提问;
步骤44:大语言模型回答问题,并标记引用的资料,并将结果返回给主控程序;
步骤45:主控程序将大语言模型的回答结果,转换成音频信息,并传递给硬件驱动单元;
步骤46:硬件驱动单元通过扬声器播放包含回答结果的音频,用户接收音频信息以获得答案。
CN202310494075.9A 2023-05-04 2023-05-04 一种用于ai学习的智能眼镜设备及其操作方法 Pending CN116521844A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310494075.9A CN116521844A (zh) 2023-05-04 2023-05-04 一种用于ai学习的智能眼镜设备及其操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310494075.9A CN116521844A (zh) 2023-05-04 2023-05-04 一种用于ai学习的智能眼镜设备及其操作方法

Publications (1)

Publication Number Publication Date
CN116521844A true CN116521844A (zh) 2023-08-01

Family

ID=87402636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310494075.9A Pending CN116521844A (zh) 2023-05-04 2023-05-04 一种用于ai学习的智能眼镜设备及其操作方法

Country Status (1)

Country Link
CN (1) CN116521844A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117672222A (zh) * 2024-01-31 2024-03-08 浙江大学滨江研究院 大语言模型驱动的显微镜控制方法、装置及电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117672222A (zh) * 2024-01-31 2024-03-08 浙江大学滨江研究院 大语言模型驱动的显微镜控制方法、装置及电子设备
CN117672222B (zh) * 2024-01-31 2024-04-16 浙江大学滨江研究院 大语言模型驱动的显微镜控制方法、装置及电子设备

Similar Documents

Publication Publication Date Title
CN107733782B (zh) 根据任务生成群的方法、装置及系统
CN109243215B (zh) 一种基于智能装置的交互方法、智能装置及系统
CN116521844A (zh) 一种用于ai学习的智能眼镜设备及其操作方法
CN105957514A (zh) 一种便携式聋哑人交流设备
CN112085630B (zh) 适合omo学习场景的智适应作业系统
CN111507220A (zh) 一种直播教学中用户信息确定与反馈的方法及装置
CN110825164A (zh) 基于儿童专用穿戴智能设备的交互方法及系统
CN105278926A (zh) 一种用于实现移动终端助手的方法及移动终端
CN114255470A (zh) 基于手写轨迹识别的答题处理方法、手写笔、系统及终端
CN104252287A (zh) 一种交互装置和基于交互装置的提高表达能力的方法
CN110473436A (zh) 一种阅读辅助学习设备
CN107785017A (zh) 一种基于手语识别的交互系统
CN110209280B (zh) 一种应答方法、应答装置及存储介质
CN111417026A (zh) 一种基于书写内容的在线学习方法及装置
CN109948600A (zh) 一种智能文字识别笔及文字识别系统
CN211466402U (zh) 服务机器人
CN205631829U (zh) 一种多功能书写笔
CN210491084U (zh) 一种在远程课堂中发送弹幕系统
CN114020143A (zh) 智能阅读辅助装置
CN209453563U (zh) 一种智能机器人
CN211181137U (zh) 一种具有视觉识别和手写板的多功能语言学习终端
CN101236701A (zh) 课堂助学器
CN110517476A (zh) 虚拟遥控生成方法、系统及存储介质
CN212160967U (zh) 一种基于智能语音技术的人机互动教学设备
CN215181900U (zh) 一种用扫描方法实现的点读笔及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination