CN116215842A - 一种基于空中平台的智能人机交互系统 - Google Patents

一种基于空中平台的智能人机交互系统 Download PDF

Info

Publication number
CN116215842A
CN116215842A CN202310234423.9A CN202310234423A CN116215842A CN 116215842 A CN116215842 A CN 116215842A CN 202310234423 A CN202310234423 A CN 202310234423A CN 116215842 A CN116215842 A CN 116215842A
Authority
CN
China
Prior art keywords
module
gesture
man
voice
machine interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310234423.9A
Other languages
English (en)
Inventor
邓劲礼
匡敏驰
郭京京
张晓涛
石孝俊
赵夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Xinyiyuan Intelligent Technology Co Ltd
Original Assignee
Chongqing Xinyiyuan Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Xinyiyuan Intelligent Technology Co Ltd filed Critical Chongqing Xinyiyuan Intelligent Technology Co Ltd
Priority to CN202310234423.9A priority Critical patent/CN116215842A/zh
Publication of CN116215842A publication Critical patent/CN116215842A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C19/00Aircraft control not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于空中平台的智能人机交互系统,将手势控制、语音控制、触摸屏幕控制用于空中平台,并通过人工智能算法识别手势和语音进而优化人机交互的性能和效率。结合无线通讯技术,开发手势、语音采集传输系统;创建一个空中平台,利用采集到的手势、语音数据,基于手势与语音指令集,研究识别手势、语音的人工智能技术;进一步的,利用识别出的手势、语音指令,基于操作控制指令集,研究控制操作人机交互界面交互元素的人工智能技术,进而实现手势、语音的智能人机交互方式;同时,考虑到手势、语音采集设备可能缺失的情况,本发明还提供了通过触摸屏幕控制操作人机交互界面交互元素的方式,使交互方式得到补充、优化,提高系统性能和效率。通过上述研究为智能人机交互在空中平台中的应用奠定一部分基础。

Description

一种基于空中平台的智能人机交互系统
技术领域
本发明涉及计算机人工智能技术领域,尤其涉及一种基于空中平台的智能人机交互方法。
技术背景
手势动作作为人体行为动作的一种,具有方便快捷、含义丰富、通俗易懂的特点,能够让人们在日常生活中以一种更自然、更直接的方式进行交互。因此,如何利用手势动作实现人机交互的问题越来越受到研究学者的重视。手势识别技术是一种融合基于先进感知技术与计算机模式识别技术的新型人机自然交互控制人工智能技术,可以分为基于视觉传感器的手势识别和基于可穿戴传感器的手势识别。由于手势识别交互技术具有成本低廉、用户体验好的特点,在智能无人系统、养老助残、虚拟现实等领域有着广阔的应用前景。
基于视觉的手势识别方法可以分为基于单目视觉的手势识别和基于多目觉的手势识别。其中基于多目视觉的方法表达的意义较为丰富、准确,但建模难度高,计算量大;基于单目视觉的方法虽然丰富度有限,但建模难度较低,计算量较小。目前,常见的手势识别方法主要有基于肤色特征、纹理特征、轮廓特征以及多个特征相互融合等方法。但是基于视觉传感器的手势识别技术需要解决传感器视场角有限、光照变化引起的干扰等问题。
语言是人类最原始直接的一种交流方式,通俗易懂、便于理解。随着科技的发展,语言交流不再只存在于人与人之间,如何让机器“听懂”人类的语言并做出反应成为人工智能的重要课题,语音智能交互技术应运而生。作为其中重要一环的语音识别技术近年来不断发展,走出了实验室,随着人工智能进入人们的日常生活中。当今市场上语音识别技术相关的软件、商品涉及人类生活的方方面面,语音识别的实用性已经得到充分的印证。如今语音识别技术已经成为人类社会智能化的关键一步,能够极大提高人们生活的便捷度。但在一些复杂语音环境下,如声源远场等情景,低信噪比、房间混响、回声干扰以及多声源信号干扰等因素,使得语音识别任务面临很大挑战。
空中平台与俄罗斯Eagle Dynamics公司开发的DCS World、法国软件开发商和发行商育碧罗马尼亚公司开发的鹰击长空类似是空战模拟平台。对于空战模拟平台传统的交互方式,即通过鼠标、键盘或者手杆完成人机的交互,存在交互效率低、步骤繁琐等问题。对于只采用手势或者语音控制的单一交互方式的空战模拟平台,一次交互的完成往往依赖与使用环境,比如常用语音交互时,在噪音大的环境下,交互体验往往不尽如人意。
空中平台利用人工智能技术实现了通过手势、语音、触屏的交互方式完成人机交互,利用手势识别技术弥补语音识别时在嘈杂环境下识别不精确或者无法识别的缺点,利用语音识别技术弥补手势识别时受限与光照条件导致识别不精确或者无法识别的缺点,通过触摸屏幕控制的方式作为手势采集和语音采集设备缺乏、损坏时的一种补充交互方式,因此空中平台的人机交互方式更加多元、对使用环境更加包容、交互效率也得到了提高。
手势识别控制技术和语音识别控制技术的发展给我们带来了无限遐想,也为人机交互技术带来新的发展方向。世界已经步入了无处不在的计算即普适计算(ubiquitous/pervasive computing)时代,用手势识别控制技术、语音识别控制技术、触屏控制技术可以开发界面更加直观、便捷,交互方式更加便捷高效的人机交互界面,正好迎合了这个时代的要求。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于空中平台的智能人机交互系统。
本发明的目的是通过以下技术方案来实现的:一种基于空中平台的智能人机交互系统,它包括手势采集和无线传输模块、语音采集和无线传输模块、空中平台模块;其中,手势采集和无线传输模块、语音采集和无线传输模块分别与空中平台模块相连。
进一步地,所述手势采集和无线传输模块由手势采集器和无线传输模块依次连接组成。
进一步地,所述语音采集和无线传输模块由手势采集器和无线传输模块依次连接组成。
进一步地,所述空中平台模块包括输入信号处理模块,生成操作指令模块,人机交互界面模块、业务逻辑模块。其中,所述输入信号处理模块包括手势指令识别模块、语音指令识别模块、手势与语音指令集;所述输入信号处理模块包括手势指令识别模块、语音指令识别模块、手势与语音指令集;所述人机交互界面模块包括人机交互界面、语音播报两个模块。该空中平台安装在计算机内,计算机可以采用便携式或者屏幕可以触控的笔记本。
本发明的有益效果是,本发明将手势控制、语音控制、触摸屏幕控制用于空中平台,并通过人工智能算法识别手势和语音进而优化人机交互的性能和效率,克服了传统空战模拟平台交互方式单一、效率低及采用单一手势或者语音控制技术时人机交互受限于环境的问题。为智能人机交互在空中平台中的应用奠定基础。
附图说明
图1为本发明的系统框图;
图2为输入信号处理模块工作原理框图;
图3为手势与语音指令集框图;
图4为生成操作指令模块工作原理框图;
图5为操作控制指令集框图;
图6为人机交互界面模块工作原理框图;
图7为人机交互交互界面框图;
图8为多功能显示面板界面框图。
具体实施方式
本发明将手势控制、语音控制、触摸屏幕控制用于空中平台,并通过人工智能算法识别手势和语音进而优化人机交互的性能和效率。结合无线通讯技术,开发手势、语音采集传输系统;创建一个空中平台,利用采集到的手势、语音数据,基于手势与语音指令集,研究识别手势、语音的人工智能技术;进一步的,利用识别出的手势、语音指令,基于操作控制指令集,研究控制操作人机交互界面交互元素的人工智能技术,进而实现手势、语音的智能人机交互方式;同时,考虑到手势、语音采集设备可能缺失的情况,本发明还提供了通过触摸屏幕控制操作人机交互界面交互元素的方式,使交互得到优化,提高系统性能和效率。通过上述研究为智能人机交互在空中平台中的应用奠定一部分基础。
下面根据附图详细描述本发明,本发明的目的和效果将变得更加明显。
如图1所示,本发明的智能人机交互系统包括手势采集和无线传输模块、语音采集和无线传输模块、空中平台模块,其中,手势采集和无线传输模块、语音采集和无线传输模块分别与空中平台模块相连。
手势采集和无线传输模块由手势采集器和无线传输模块依次连接组成。其中,手势采集器可以选用常规的体感设备(需要支持手和手指运动作为输入,但不需要手接触)。无线传输模块可采用蓝牙、Zigbee模块或者无线AP(可以与手势采集器的UART或者USB接口连接),这三种无线通信技术功耗相对较低并且传输速率能够满足空中平台数据收集的要求。为进一步降低无线传输功耗,在数据无线传输之前还可以进行数据的部分压缩。
语音采集和无线传输模块由语音采集器和无线传输模块依次连接组成。其中,语音采集器主要是一个单片机作为控制核心和一个芯片作为语音存储介质。无线传输模块可采用蓝牙、Zigbee模块或者无线AP(可以与手势采集器的UART或者USB接口连接),这三种无线通信技术功耗相对较低并且传输速率能够满足空中平台数据收集的要求。为进一步降低无线传输功耗,在数据无线传输之前还可以进行数据的部分压缩。
如图2所示,空中平台模块中的输入信号处理模块包括手势指令识别模块、语音指令识别模块,手势与语音指令集。其中,手势指令识别模块接收手势采集和无线传输模块的信号数据作为输入,利用手势识别技术,基于手势与语音指令集的指令,可以得到要执行的功能,并将要执行的功能作为输入信号处理模块的输出;语音指令识别模块接收语音采集和无线传输模块的信号数据作为输入,利用语音识别技术,基于手势与语音指令集的指令,可以得到要执行的功能,并要执行的功能作为输入信号处理模块的输出。
如图3所示,系统的手势与语音指令集是提前录入的,包含手势指令、语音指令。其中,手势指令由手势和功能构成,比如左手手势为大拇指、食指伸展,中指、无名指、小拇指收缩时,功能是放大地图;语音指令由执行者、动作、目标构成,比如执行者红1,执行的动作是攻击,目标是蓝1,该指令的功能是命令红1攻击蓝1。
如图4所示,空中平台模块中的生成操作指令模块包含战斗控制指令生成模块、视野操作指令生成模块、操作控制指令集。其中,战斗控制指令生成模块接收输入信号处理模块要执行的功能作为输入,利用正则表达式匹配技术,基于操作控制指令集,可以得到要操作的对象及操作元素,并要操作的对象及操作元素作为生成操作指令模块的输出;视野操作指令生成模块接收输入信号处理模块要执行的功能作为输入,利用正则表达式技术,基于操作控制指令集,可以得到要操作的对象及操作元素,并将要操作的对象及操作元素作为生成操作指令模块的输出。
如图5所示,系统的操作控制指令集是提前录入的。其中,操作控制指令集由构成战斗控制指令和视野操作指令构成,比如点击选中目标、释放导弹按钮;点击地图放大按钮。
如图6所示,空中平台模块中的人机交互界面模块包括人机交互界面、语音播报。其中,人机交互界面接收生成操作指令模块输出的要操作的对象及操作元素作为输入,在人机交互界面中战斗场景里选择对象,并选择执行操作栏中相应操作元素,进而实现语音控制或手势控制人机交互界面的操作,操作执行完毕后,人机交互界面中战斗场景里显示相应变化,同时通过语音播报模块进行播报;人机交互界面也可以通过人为触控屏幕的操作作为输入,在人机交互界面中战斗场景里选择对象,并选择执行操作栏中相应操作元素,进而实现触摸屏幕控制人机交互界面的操作,操作执行完毕后,人机交互界面中战斗场景里显示相应变化,同时通过语音播报模块进行播报。
智能交互系统中的交互对象是虚拟操作元素。其中虚拟操作元素是指在人机交互界面中战斗场景里出现的可操作的物体、人机交互界面中操作栏中可执行的操作指令和多功能显示面板控制栏中可执行的操作指令,比如在战斗场景中选中地图,选择后可以在战场视野操作栏执行放大、缩小等相应的操作指令;在战斗场景中选中武器,选择后可以在战斗指挥操作栏中执行武器切换、发射等相应的操作指令。
交互的方法是基于选择的。其中选择是指通过手势、语音或者触摸屏幕的方式从人机交互界面中战斗场景里选取可操作的对象并在人机交互界面中操作栏里或者多功能显示面板控制栏里选定要执行的操作元素。所有离散的分布控制都可以通过基于选择的方式进行。
如图7所示,人机交互界面包括战斗场景和操作栏,其中操作栏分为战斗指令操作栏部分和视野操作栏两个部分。在人机交互界面中,区域面积最大的区域是战斗场景,战斗场景上方是视野操作栏,战斗场景左边是战斗指挥操作栏。战斗场景中的操作对象选择和操作元素选择均可以通过触控屏幕、语音控制或者手势控制实现。
在战斗场景中通过触摸屏幕、语音控制或者手势控制选中飞机后,人机交互界面中的战斗场景将自动切换为飞机的多功能显示面板,如图8所示。飞机多功能显示面板的显示区域可以划分为五个区域,包括一个顶部横排的控制栏和四个横向并列排列的功能门户区。控制栏显示了一系列关键的飞机状态摘要信息,比如引擎、燃油、通信、导航等摘要信息。通过选中控制栏中的摘要,其下方的主功能门户将根据选中的摘要动态的、以图像的方式展现具体的摘要数据,同时在两个子功能门户以列表的方式展示最重要摘要数据,比如选中引擎,引擎下方的主功能门户将展示引擎的图标,并在引擎图标相应位置展示对应的引擎数据信息,子功能门户则以列表的形式展示引擎最重要的几项数据。如果选中左边子功能门户中的隐藏子功能门户按钮,子功能门户将向左移动直至完全消失,同时隐藏子功能门户按钮将隐藏起来。如果选中右边子功能门户中的隐藏子功能门户按钮,子功能门户将向右边移动直至完全消失,同时隐藏子功能门户按钮将隐藏起来。在主功能门户中,当左右的子功能门户都隐藏的情况下,显示子功能门户按钮才会显示。如果在主功能门户中选中显示子功能门户按钮,左右边子功能门户将同时以弹出窗口的方式显示处理。多功能显示面板中的操作对象选择和操作元素选择均可以通过触控屏幕、语音控制或者手势控制实现,比如通过语音控制的方式打开导航面板,或者通过触摸屏幕点击导航按钮,打开导航面板。选中多功能显示面板右上角的X图标,多功能显示器将退出显示并切换为战斗场景。

Claims (7)

1.一种基于空中平台的智能人机交互系统,其特征在于,它包括手势采集和无线传输模块、语音采集和无线传输模块、空中平台模块。其中,手势采集和无线传输模块、语音采集和无线传输模块分别与空中平台模块相连。
2.根据权利要求1所述基于空中平台的智能人机交互系统,其特征在于,所述手势采集和无线传输模块由手势采集器和无线传输模块依次连接组成。
3.根据权利要求1所述基于空中平台的智能人机交互系统,其特征在于,所述语音采集和无线传输模块由语音采集器和无线传输模块依次连接组成。
4.根据权利要求1所述基于空中平台的智能人机交互系统,其特征在于,所述空中平台模块包括输入信号处理模块,生成操作指令模块,人机交互界面模块、业务逻辑模块。其中空中平台安装在计算机内,计算机可以采用便携式或者屏幕可以触控的笔记本。
5.根据权利要求4所述空中平台模块,其特征在于,输入信号处理模块包括手势指令识别模块、语音指令识别模块、手势与语音指令集。
6.根据权利要求4所述空中平台模块,其特征在于,生成操作指令模块包括视野操作指令生成模块、战斗控制指令生成模块、操作控制指令集。
7.根据权利要求4所述空中平台模块,其特征在于,人机交互界面模块包括人机交互界面、语音播报两个模块。
CN202310234423.9A 2023-03-10 2023-03-10 一种基于空中平台的智能人机交互系统 Pending CN116215842A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310234423.9A CN116215842A (zh) 2023-03-10 2023-03-10 一种基于空中平台的智能人机交互系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310234423.9A CN116215842A (zh) 2023-03-10 2023-03-10 一种基于空中平台的智能人机交互系统

Publications (1)

Publication Number Publication Date
CN116215842A true CN116215842A (zh) 2023-06-06

Family

ID=86582268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310234423.9A Pending CN116215842A (zh) 2023-03-10 2023-03-10 一种基于空中平台的智能人机交互系统

Country Status (1)

Country Link
CN (1) CN116215842A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426282A (zh) * 2013-07-31 2013-12-04 深圳市大疆创新科技有限公司 遥控方法及终端
CN106303014A (zh) * 2016-08-10 2017-01-04 乐视控股(北京)有限公司 一种飞行控制系统及无人机
CN207282003U (zh) * 2017-10-16 2018-04-27 歌尔科技有限公司 无人机的智能控制手环及无人机系统
US20200096999A1 (en) * 2018-09-26 2020-03-26 International Business Machines Corporation Voice-controllable unmanned aerial vehicle for object retrieval and delivery
CN112099526A (zh) * 2020-09-09 2020-12-18 北京航空航天大学 基于语音和手势识别的无人机控制系统及控制方法
US20210206491A1 (en) * 2020-01-03 2021-07-08 Tencent America LLC Unmanned aerial system communication

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426282A (zh) * 2013-07-31 2013-12-04 深圳市大疆创新科技有限公司 遥控方法及终端
CN106303014A (zh) * 2016-08-10 2017-01-04 乐视控股(北京)有限公司 一种飞行控制系统及无人机
CN207282003U (zh) * 2017-10-16 2018-04-27 歌尔科技有限公司 无人机的智能控制手环及无人机系统
US20200096999A1 (en) * 2018-09-26 2020-03-26 International Business Machines Corporation Voice-controllable unmanned aerial vehicle for object retrieval and delivery
US20210206491A1 (en) * 2020-01-03 2021-07-08 Tencent America LLC Unmanned aerial system communication
CN112099526A (zh) * 2020-09-09 2020-12-18 北京航空航天大学 基于语音和手势识别的无人机控制系统及控制方法

Similar Documents

Publication Publication Date Title
US20230333378A1 (en) Wristwatch based interface for augmented reality eyewear
Surale et al. Tabletinvr: Exploring the design space for using a multi-touch tablet in virtual reality
CN110889161B (zh) 一种声控建筑信息模型三维显示系统和方法
EP2631739B1 (en) Contactless gesture-based control method and apparatus
WO2015113503A1 (zh) 一种指环式无线指感控制器、控制方法及控制系统
Kolsch et al. Multimodal interaction with a wearable augmented reality system
EP4172736A1 (en) Integration of artificial reality interaction modes
CN104571823B (zh) 一种基于智能电视的非接触式虚拟人机交互方法
KR20200121357A (ko) 물리적 조작을 사용한 오브젝트 생성
CN103440033B (zh) 一种基于徒手和单目摄像头实现人机交互的方法和装置
CN105224069A (zh) 一种增强现实虚拟键盘输入方法及使用该方法的装置
JP2014186361A (ja) 情報処理装置、操作制御方法及びプログラム
CN106681354A (zh) 无人机的飞行控制方法和装置
CA2848624C (en) Methods and systems for gesture-based petrotechnical application control
US20210072818A1 (en) Interaction method, device, system, electronic device and storage medium
Matulic et al. Phonetroller: Visual representations of fingers for precise touch input with mobile phones in vr
Shao et al. A natural interaction method of multi-sensory channels for virtual assembly system of power transformer control cabinet
Lu et al. Classification, application, challenge, and future of midair gestures in augmented reality
CN110717993A (zh) 一种分体式ar眼镜系统的交互方法、系统及介质
CN116215842A (zh) 一种基于空中平台的智能人机交互系统
CN103336587B (zh) 一种九轴惯性定向输入装置的远端悬浮触控设备和方法
CN116243785A (zh) 基于混合现实的多人协同沙盘指挥系统
CN208969679U (zh) 一种基于平面手指识别的人机交互系统
CN104777900A (zh) 一种基于手势趋势的图形界面响应方法
Zhang et al. Free-hand gesture control with" touchable" virtual interface for human-3DTV interaction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20230606