CN117919719A - 交互方法、装置、电子设备及可读存储介质 - Google Patents

交互方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN117919719A
CN117919719A CN202211255891.6A CN202211255891A CN117919719A CN 117919719 A CN117919719 A CN 117919719A CN 202211255891 A CN202211255891 A CN 202211255891A CN 117919719 A CN117919719 A CN 117919719A
Authority
CN
China
Prior art keywords
feedback instruction
virtual object
interaction
feedback
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211255891.6A
Other languages
English (en)
Inventor
魏一明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202211255891.6A priority Critical patent/CN117919719A/zh
Priority to US18/481,039 priority patent/US20240126372A1/en
Publication of CN117919719A publication Critical patent/CN117919719A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及一种虚拟现实交互方法及装置,其中,该本公开提供一种交互方法、装置、电子设备及可读存储介质,其中,该方法通过响应对第一虚拟对象的控制指令,确定与第一虚拟对象的控制参数和/或属性参数相关的第一反馈指令以及与第二虚拟对象的属性参数相关的第二反馈指令,其中,第一虚拟对象为用户操作的虚拟对象,第二虚拟对象为第一虚拟对象的交互对象;并通过执行第一反馈指令和第二反馈指令针对第一虚拟对象和第二虚拟对象分别反馈,给用户更丰富的反馈,方便用户根据不同虚拟对象的反馈理解和操作虚拟对象,改变虚拟对象之间的交互状态,提升交互乐趣,解决了现有虚拟对象反馈信息有限的问题。

Description

交互方法、装置、电子设备及可读存储介质
技术领域
本公开涉及计算机技术领域,尤其涉及一种交互方法、装置、电子设备及可读存储介质。
背景技术
随着计算机技术的快速发展,电子设备具有越来越多的功能,用户可以通过电子设备体验各种交互项目,例如,垂钓、拳击、乒乓球、网球等等各式各样的娱乐休闲交互项目,用户可以通过控制交互场景中的虚拟对象来操作交互场景中的其他虚拟对象。
在交互场景中,通常会给用户一些反馈,方便用户根据获得的反馈理解交互的状态以及控制交互场景中的虚拟对象。然而,目前交互场景给用户的反馈通常较为有限,这严重影响用户对于交互场景的理解,导致用户体验较差。
发明内容
为了解决上述技术问题,本公开提供了一种交互方法、装置、电子设备及可读存储介质。
第一方面,本公开提供了一种交互方法,包括:
响应于对第一虚拟对象的控制指令,确定第一反馈指令和第二反馈指令,所述第一反馈指令与所述第一虚拟对象的控制参数和/或属性参数相关,所述第二反馈指令与第二虚拟对象的属性参数相关;其中,所述第一虚拟对象是由用户控制的虚拟对象,所述第二虚拟对象为所述第一虚拟对象的交互对象;
执行所述第一反馈指令和所述第二反馈指令。
在一些实施例中,所述执行所述第一反馈指令和所述第二反馈指令,包括:
向交互设备发送所述第一反馈指令和/或所述第二反馈指令,以使所述交互设备执行所述第一反馈指令和/或所述第二反馈指令。
在一些实施例中,所述向交互设备发送所述第一反馈指令和/或所述第二反馈指令,以使所述交互设备执行所述第一反馈指令和/或所述第二反馈指令,包括:
向第一交互设备发送所述第一反馈指令和所述第二反馈指令,以使所述第一交互设备执行所述第一反馈指令和所述第二反馈指令,所述第一反馈指令与所述第二反馈指令类型不同。
在一些实施例中,所述第一交互设备为交互手柄,所述第一反馈指令和所述第二反馈指令分别用于设置手柄震动幅度和震动频率。
在一些实施例中,所述第一虚拟对象为虚拟垂钓工具,所述第二虚拟对象为虚拟垂钓对象。
在一些实施例中,所述向交互设备发送所述第一反馈指令和/或所述第二反馈指令,以使所述交互设备执行所述第一反馈指令和/或所述第二反馈指令,包括:
向第一交互设备发送所述第一反馈指令以使所述第一交互设备执行所述第一反馈指令;以及,
向第二交互设备发送所述第一反馈指令以使所述第二交互设备执行所述第二反馈指令。
在一些实施例中,所述方法还包括:
组合显示第一显示内容和第二显示内容,所述第一显示内容对应第一反馈指令,所述第二显示内容对应所述第二反馈指令。
在一些实施例中,所述组合显示第一显示内容和第二显示内容,包括:
建立二维坐标系;在所述二维坐标系下组合显示所述第一显示内容和所述第二显示内容,所述第一显示内容和所述第二显示内容分别对应所述二维坐标系的不同坐标轴。
在一些实施例中,所述方法应用于头戴式显示设备,所述头戴式显示设备用于显示虚拟现实场景,所述虚拟现实场景包括所述第一虚拟对象和所述第二虚拟对象。
第二方面,本公开提供了一种交互装置,包括:
第一处理模块,用于响应于对第一虚拟对象的控制指令,确定第一反馈指令和第二反馈指令,所述第一反馈指令与所述第一虚拟对象的控制参数和/或属性参数相关,所述第二反馈指令与第二虚拟对象的属性参数相关;其中,所述第一虚拟对象是由用户控制的虚拟对象,所述第二虚拟对象为所述第一虚拟对象的交互对象;
第二处理模块,用于执行所述第一反馈指令和第二反馈指令。
第三方面,本公开提供了一种电子设备,包括:存储器和处理器;
所述存储器被配置为存储计算机程序指令;
所述处理器被配置为执行所述计算机程序指令,使得所述电子设备实现如第一方面以及第一方面任一项所述的交互方法。
第四方面,本公开提供了一种可读存储介质,包括:计算机程序指令;电子设备的至少一个处理器执行所述计算机程序指令,使得所述电子设备实现如第一方面以及第一方面任一项所述的交互方法。
第五方面,本公开提供了一种计算机程序产品,电子设备的至少一个处理器执行所述计算机程序产品,使得所述电子设备实现如第一方面以及第一方面任一项所述的交互方法。
本公开提供一种交互方法、装置、电子设备及可读存储介质,其中,该方法通过响应对第一虚拟对象的控制指令,确定与第一虚拟对象的控制参数和/或属性参数相关的第一反馈指令以及与第二虚拟对象的属性参数相关的第二反馈指令,其中,第一虚拟对象为用户操作的虚拟对象,第二虚拟对象为第一虚拟对象的交互对象;并通过执行第一反馈指令和第二反馈指令针对第一虚拟对象和第二虚拟对象分别反馈,给用户更丰富的反馈,方便用户根据不同虚拟对象的反馈理解和操作虚拟对象,改变虚拟对象之间的交互状态,提升交互乐趣,解决了现有虚拟对象反馈信息有限的问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的交互方法的流程示意图;
图2为本公开另一实施例提供的交互方法的流程示意图;
图3A至图3G为本公开示例性示出的虚拟垂钓场景的虚拟现实画面的示意图;
图4为本公开一实施例提供的交互装置的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
示例性地,本公开提供的交互方法可以由电子设备执行,其中,电子设备可以但不限于平板电脑、手机(如折叠屏手机、大屏手机等)、可穿戴设备、车载设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)、智能电视、智慧屏、高清电视、4K电视、智能投影仪、增强现实(augmented reality,AR)等设备,本公开对电子设备的具体类型不作任何限制。其中,本公开对电子设备的操作系统的类型不做限定。例如,Android系统、Linux系统、Windows系统、iOS系统等。用户可以通过直接操作电子设备控制交互场景中的虚拟对象,如触摸电子设备显示屏幕、按压电子设备上的按键等控制电子设备的显示屏幕上所显示的画面中的虚拟对象,或者,还可以通过操作与电子设备连接的交互设备(如游戏手柄、手环、腿环等等)控制电子设备的显示屏幕上所显示的画面中的虚拟对象。此外,电子设备还可以为虚拟现实(virtual reality,VR)设备,VR设备时,其中,VR设备可以包括VR手柄和头戴式显示设备,头戴式显示设备可以为一体式的,也可以为显示与主机分离式的,本公开对VR设备的具体类型不作任何限制,用户可以通过VR手柄控制头戴式显示设备所展示的虚拟交互场景的虚拟场景画面(VR画面)中的虚拟对象。本公开还可以适用于其他类型的电子设备以及其他形式的交互场景,此处仅为示例。
接下来通过一些示例结合相关附图对本公开提供的交互方法进行详细介绍。
图1为本公开一实施例提供的交互方法的流程示意图。请参阅图1所示,本实施例的方法包括:
S101、响应于对第一虚拟对象的控制指令,确定第一反馈指令和第二反馈指令,第一反馈指令与第一虚拟对象的控制参数和/或属性参数相关,第二反馈指令与第二虚拟对象的属性参数相关;其中,第一虚拟对象是由用户控制的虚拟对象,第二虚拟对象为第一虚拟对象的交互对象。
S102、执行第一反馈指令和第二反馈指令。
用户可以通过启动安装在电子设备中的应用程序进入交互场景,且可以通过操作电子设备或者操作与电子设备能够进行数据传输的交互设备控制交互场景中的第一虚拟对象,如,改变第一虚拟对象的位姿、移动速度、朝向、在交互场景中的位置、第一虚拟对象的一个或者多个组成部分的状态,通过控制第一虚拟对象进而操作交互场景中的第二虚拟对象。
其中,对第一虚拟对象的控制指令可以是用户通过电子设备或者与电子设备关联的交互设备输入的,也可以是应用程序基于采集到的其他数据生成的,控制指令中可以包括针对第一虚拟对象的控制参数用户改变第一虚拟对象在交互过程中呈现的状态,本公开对于控制参数具体不作限定。
此外,启动电子设备中的应用程序之后用户还可以对第一虚拟对象和/或第二虚拟对象的属性参数进行调整配置,以满足用户个性化的交互需求。
其中,交互场景中第一和第二虚拟对象的数量可以为一个或多个,多个第一虚拟对象可以为相同或者不同类型的虚拟对象,类似地,多个第二虚拟对象也可以为相同或者不同类型的虚拟对象,本公开对此不作限定。第一虚拟对象和第二虚拟对象可以根据交互场景不同而不同。
一些实施例中,电子设备显示的交互画面中可以包括第一虚拟对象对应的图像以及第二虚拟对象的图像;在另一些实施例中,第二虚拟对象对应的图像可以常驻显示在交互画面中,也可以根据用户针对第一虚拟对象的控制或者根据第一虚拟对象与第二虚拟对象之间的交互状态显示或者不显示在交互画面中。
此外,通过电子设备中的应用程序还可以控制电子设备或者与电子设备关联的一个或者多个交互设备执行与交互场景中的虚拟对象关联的反馈指令,从而给用户与虚拟对象关联的反馈。
其中,第一反馈指令与第一虚拟对象关联,其可以给到用户针对第一虚拟对象关联的反馈;类似地,第二反馈指令与第二虚拟对象关联,其可以给到用户针对第二虚拟对象关联的反馈。
第一反馈指令和第二反馈指令可以是不同操作类型的指令,如显示、播放声音、振动等等,也可以是针对同一操作类型的不同参数设置的指令,如显示的亮度和对比度,声音的频率和音量,振动的幅度和频率等。其中,反馈指令可以包括一个或多个操作类型的指令以及一操作类型下一个或者多个参数设置的指令。或者,第一和第二反馈指令也可以是相同操作类型且针对相同参数设置的指令。
其中,第一反馈指令与第一虚拟对象的控制参数和/或属性参数关联,控制参数可以基于对第一虚拟对象的控制指令确定,属性参数可以基于应用程序中第一虚拟对象对应的对象模型的参数确定。示例性地,第一反馈指令可以用于设置于电子设备的状态或者与电子设备关联的交互设备的状态,从而给用户第一虚拟对象对应的反馈。
第二反馈指令可以与第二虚拟对象的属性参数相关,属性参数可以基于应用程序中第二虚拟对象对应的对象模型的参数确定。示例性地,第二反馈指令可以用于设置于电子设备的状态或者与电子设备关联的交互设备的状态,从而给用户第二虚拟对象对应的反馈。
上述第一/第二虚拟对象的属性参数可以但不限于包括相应对象模型配置的第一/第二虚拟对象的对象类型、型号、尺寸、颜色、材质、受力状态等一项或多项参数。此处仅为示例,并不是对具体属性参数的限制,可以理解的是,在不同交互场景中,虚拟对象的属性参数具有差异。
此外,一些实施例中,可以由同一设备执行第一反馈指令和第二反馈指令,通过同一设备给到用户针对不同虚拟对象的反馈,例如,可以为电子设备,也可以为与电子设备关联的交互设备。另一些实施例中,可以由不同设备分别执行第一反馈指令和第二反馈指令,用户更能区别感受针对不同虚拟对象的反馈,如,将第一反馈指令发送至第一交互设备由第一交互设备执行,将第二反馈指令发送至第二交互设备由第二交互设备执行,第一交互设备和第二交互设备可以为相同类型或者不同类型的交互设备。
其中,第一/第二交互设备可以但不限于为游戏手柄,VR手柄、腿环、手环,手套或者其他可穿戴设备。
本实施例的方法通过响应对第一虚拟对象的控制指令,确定与第一虚拟对象的控制参数和/或属性参数相关的第一反馈指令以及与第二虚拟对象的属性参数相关的第二反馈指令,其中,第一虚拟对象为用户操作的虚拟对象,第二虚拟对象为第一虚拟对象的交互对象;并通过执行第一反馈指令和第二反馈指令针对第一虚拟对象和第二虚拟对象分别反馈,给用户更丰富的反馈,方便用户根据不同虚拟对象的反馈理解和操作虚拟对象,改变虚拟对象之间的交互状态,提升交互乐趣,解决了现有虚拟对象反馈信息有限的问题。
图2为本公开另一实施例提供的交互方法的流程示意图。请参阅图2所示,本实施例的方法,在图1所示实施例的基础上,S101之后还包括:
S103、组合显示第一显示内容和第二显示内容,第一显示内容对应第一反馈指令,第二显示内容对应第二反馈指令。
第一显示内容可以在电子设备确定第一反馈指令时得到或者也可以从执行第一反馈指令的设备(如电子设备或者第一交互设备)中采集得到,如,第一显示内容可以包括第一反馈指令所指示的操作类型下要设置的参数的波形、第一反馈指令所指示的声音所对应的文本内容等等。本公开对于获取第一显示内容的实现方式不作限定。
类似地,第二显示内容可以基于第二反馈指令确定或者也可以从执行第二反馈指令的设备(如电子设备或者第二交互设备)得到,如,第二显示内容可以包括第一反馈指令所指示的操作类型下要设置的参数的波形、第一反馈指令所指示的声音所对应的文本内容等等。本公开对于获取第一显示内容和第二显示内容的方式不作限定。
其中,显示第一显示内容和第二显示内容可以理解为是将针对第一虚拟对象的反馈以及针对第二虚拟对象的反馈通过可视化的方式呈现给用户,使得用户感受更加直观。此外,第一显示内容和第二显示内容组合显示使得用户能够快速得到更多的信息,例如,第一虚拟对象和第二虚拟对象各自在交互场景中呈现的状态以及第一虚拟对象对第二虚拟对象的交互状态,从而给对交互场景有更加深入的理解,用于快速构建针对第一虚拟对象的控制策略组合,进而改变第一虚拟对象对第二虚拟对象的交互状态,提升交互乐趣。
其中,在交互画面中组合显示第一显示内容和第二显示内容时可以但不限于通过图表、文字、动画等任意一种方式显示或结合多种方式显示,满足用户的需求。
在一些实施例中,可以通过建立坐标系,将第一显示内容和第二显示内容分别映射在坐标系的不同坐标轴上,再将映射有显示内容的坐标系显示在交互画面中呈现给用户。其中,坐标系可以但不限于为二维坐标系、三维坐标系、柱面坐标系、球面坐标系。此外,在交互画面中显示坐标系时,可以设置显示坐标系的图像区域尽量不遮挡交互画面的主要画面区域,并尽可能方便用户查看坐标系中的信息。例如,可以将坐标系显示在靠近第一虚拟对象的预设范围内的任意位置,且不遮挡第一虚拟对象对应的图像,由于在交互过程中,用户的注意力通常会更关注由自身控制的第一虚拟对象,为了方便用户构建针对第一虚拟对象的控制策略,因此,可以靠近第一虚拟对象显示,且不遮挡第一虚拟对象,能够获得较好的显示效果。一些实施例中,显示上述第一显示内容和第二显示内容的图像在交互画面中的位置可以跟随第一虚拟对象对应的图像在交互画面中的位置而变化,应理解,显示上述第一显示内容和第二显示内容的图像也可以处于交互画面的某一处固定不变,使得应用程序处理逻辑简单,具体采用何种方式,可根据需求灵活配置。
此外,在显示时还可以对显示区域进行图像处理,以呈现更加具有沉浸感的交互画面。图像处理的方式可以但不限于通过特效、AR、VR等一种或多种方式进行增强。
本实施例的方法,通过可视化的方式以及组合显示的方式相结合向用户呈现与针对第一虚拟对象的反馈相关的显示内容以及与针对第二虚拟对象的反馈相关的显示内容,使得用户能够更加直观地快速地获取大量信息,提升用户在交互场景中控制策略感知能力,使得用户能够快速构建出控制策略组合,提升用户交互体验。
结合前文描述可知,本公开提供的交互方法可以适用于AR、VR以及其他场景中,接下来以VR场景为例进行举例说明。
虚拟现实(Virtual Reality,VR)技术,又称虚拟实境或灵境技术,在实现时以计算机技术为主,利用并综合三维图形技术、多媒体技术、仿真技术、显示技术、伺服技术等,借助计算机等设备产生一个逼真的三维视觉、触觉、嗅觉等多种感官体验的虚拟世界,从而使处于虚拟世界中的用户产生一种身临其境的感觉。随着社会生产力和科学技术的不断发展,各行各业对VR技术的需求日益旺盛,VR也逐渐走进人们的日常生活为生活带来乐趣,例如,用户可以通过VR设备体验各种各样的VR场景,例如,垂钓、拳击、网球、乒乓球等运动类的虚拟现实场景。目前,VR通常注重于通过头戴式显示设备呈现的虚拟现实画面增强沉浸感,用户获得的反馈较少,进而会导致用户对于控制策略感知较弱,VR体验较差。
以垂钓交互场景为例,目前大致包括下述几种不同类型的实现VR垂钓的VR程序产品:1、通过营造类真实垂钓场景的情景感知,显示具有较高物理仿真度的垂钓工具(如钓竿),在用户依赖主观的想法调整垂钓策略(如调整针对钓竿的控制策略)时呼出交互界面,对于用户来说,沉浸感更强;2、通过多视角切换,提供真实世界无法提供的视角,提升整个垂钓过程中的既视感,由于在VR中还原的影响垂钓的环境属性丰富,用户上手以及精通门槛较高;3、以内置的任务驱动为主,垂钓工具的物理仿真度较低,整体的交互较为简单。用户通过上述任一VR程序产品体验VR垂钓时得到的反馈极其有限。
在VR垂钓交互场景中,第一虚拟对象为虚拟垂钓工具,第二虚拟对象为虚拟垂钓对象,如一种或多种类型的鱼类,且第二虚拟对象的数量可以为一个或多个,这些是可以配置的。
示例性地,以VR交互场景为VR垂钓交互场景为例进行示例说明本公开提供的交互方法。其中,VR设备包括VR头显一体设备和VR手柄,VR头显一体设备中包安装有VR垂钓程序,且能够基于VR垂钓程序的控制显示相应的VR画面,用户可以通过佩戴VR头显一体设备并启动VR垂钓程序以及通过VR手柄进行控制则可以体验VR垂钓。
第一虚拟对象为VR垂钓交互场景中的虚拟垂钓工具(也可以理解VR垂钓程序提供的虚拟钓竿,虚拟钓竿的图像能够显示在VR画面中),第二虚拟对象为VR垂钓程序提供的虚拟鱼类,用户通过操作VR手柄控制虚拟垂钓工具与虚拟鱼类进行交互进行垂钓,VR手柄中设置有马达,在VR垂钓交互场景中,VR手柄可以向VR垂钓程序发送手柄数据,并得到VR垂钓程序基于手柄数据下发的反馈指令控制马达震动,从而模拟真实垂钓场景中的垂钓工具在不同受力状态下的震动情况,用户可以体验接近真实的触感。
具体地,用户操作VR手柄时,VR手柄不断向VR头显一体设备发送手柄数据,VR头显一体设备中的VR垂钓程序发基于手柄数据得到针对虚拟垂钓工具的控制指令,并响应控制指令确定第一反馈指令和第二反馈指令,且将第一反馈指令和第二反馈指令发送给VR手柄,指示VR手柄执行第一反馈指令和第二反馈指令控制马达震动。
其中,第一反馈指令用于设置马达的震动幅度,其中可以包括马达的震动幅度大小的信息,第一反馈指令可根据用户针对虚拟垂钓工具的控制所确定的控制参数以及虚拟垂钓工具在VR场景中的属性参数确定,属性参数如鱼线部分和/或鱼竿部分的受力状态;第二反馈指令用于设置马达的震动频率,其中可以包括马达的震动频率大小的信息,第二反馈指令可根据虚拟垂钓对象在VR场景中的属性参数确定,如鱼的重量、活力(可通过活力等级体现)等。
通过VR手柄执行第一反馈指令和第二反馈指令控制马达震动给到用户针对虚拟垂钓工具的反馈和针对虚拟垂钓对象的反馈。
在该场景下,VR手柄中的马达可以为宽频马达,其能够实现通过震动幅度和震动频率两个维度针对虚拟垂钓工具和虚拟垂钓工具分别反馈,给用户的反馈信息更丰富也便于用户根据不同的反馈理解和操作虚拟垂钓工具,构建对于虚拟垂钓工具的控制策略组合,提升垂钓体验。
此外,在用户体验的过程中,可以基于第一反馈指令确定第一显示内容包括马达的震动幅度大小的信息,可以基于第二反馈指令确定第二显示内容包括马达的震动频率大小的信息。再将第一显示内容和第二显示内容组合显示在VR画面中。通过VR头显一体设备将马达的震动频率和震动幅度的信息组合显示在VR画面中,使得用户能够基于马达的震动频率和震动幅度了解鱼的属性状态、虚拟钓竿的鱼线部分的属性状态和/或鱼竿部分的属性状态,从而快速确定针对虚拟钓竿的控制策略。其中,鱼的属性状态可以包括指鱼的活力,其对应马达的震动频率,震动频率与鱼的活力成正比关系,震动频率越高表示鱼的活力越充足。钓竿的属性状态可以包括但不限于:鱼竿部分以及鱼线部分的受力状态,鱼竿部分以及鱼线部分的受力状态对应马达的震动幅度,震动幅度与鱼线/鱼竿的受力状态成正比,震动幅度越高表示受力越大。
将马达的震动频率和震动幅度的信息结合能够反映出当前虚拟鱼类与虚拟钓竿之间的交互状态,其中,虚拟鱼类与虚拟钓竿之间的交互状态可以包括:未上钩状态、鱼触碰鱼饵(鱼饵设置在鱼钩上,鱼钩固定在鱼线的一端)的状态、鱼上钩状态以及鱼钓起状态。
在VR垂钓场景中,可以将马达的震动频率和震动幅度分别映射在二维坐标系的不同坐标轴中,其中,横轴为震动频率,纵轴为震动幅度,再将二维坐标系显示在VR画面中。此外,为了保证用户能够获取更多的信息,第一显示内容还可以包括虚拟钓竿的鱼线和/或鱼竿的受力曲线、垂钓深度信息(钓竿在水中达到的深度)等信息。
示例性地,图3A至图3G为VR垂钓交互场景中不同状态下的VR画面示意图。图3A至图3G可以为VR画面的部分,应理解,VR垂钓程序可以提供更加完整以及沉浸感更强的VR画面。
参照图3A所示,其中,马达的震动幅度以及震动频率均为0,表示当前处于鱼未上钩状态,鱼也未触碰虚拟钓竿上的鱼饵。
参照图3B所示,马达同步单次较小幅度的震动,且震动频率较低,表示当前鱼在触碰鱼饵进行试探,用户可以确定控制策略为无需针对虚拟钓竿执行任何操作。
参照图3C所示,马达同步两次小幅震动,震动频率相较于图3B所示有所升高,表示当前鱼在触碰鱼饵进行试探,且试探力度相比图3B所示增大。用户可以确定控制策略为无需针对虚拟钓竿执行任何操作。
结合图3B以及图3C,马达的震动频率和震动幅度均发生了变化,且虚拟钓竿与鱼之间的交互状态不同,但确定的控制策略可以相同。
参照图3D所示,马达的震动幅度增加,且震动频率较高,表示当前鱼已上钩,且鱼竿受力强度处于可控范围,鱼线受力强度处于可控范围,马达震动频率较高表示鱼的活力较高,用户可确定当前鱼竿和鱼线受力均在可承受范围之内,用户可以确定控制策略为正常收紧鱼线将鱼钓起,无需放长鱼线遛鱼。
参照图3E所示,马达的震动幅度相比图3D所示有所增加,且震动频率范围和频率值均有所增加,表示当前鱼已上钩,且鱼竿受力强度过载,可能会出现断裂,鱼线受力强度过载,可能会出现断裂,马达震动频率较高表示鱼的活力非常充足,基于此,用户可确定控制策略为需要放长鱼线进行遛鱼,防止鱼的活动力度过大导致鱼竿和/或鱼线断裂。
参照图3F所示,马达的震动幅度相比图3E所示有所增加,且震动频率范围和频率值均有所增加,表示当前鱼已上钩,且鱼竿受力强度在可承受范围之内,但鱼线受力强度过载,可能会出现断裂,马达震动频率较高表示鱼的活力非常充足,基于此,用户可快速构建交互策略,确定需要放长鱼线遛鱼,防止鱼脱钩以及鱼线断裂。
在图3E与图3F的基础上,虚拟钓竿与虚拟鱼之间的交互状态进一步发生了变化,采集到的反馈信息如图3G所示,马达震动幅度和震动频率相比于图3E和图3F所示均有所降低,表示当前鱼已钓起,且鱼竿和鱼线的受力强度均在可承受范围之内,此时鱼的重量将影响鱼竿和鱼线的受力强度,用户可以确定控制策略为根据鱼的重量调整钓起的速度再使用其他工具。
在图3A至图3G所示的示意图中,还可以显示鱼竿/鱼线的受力曲线,在不同受力强度下,鱼竿/鱼线的受力曲线可以通过不同颜色区分,且VR画面中的虚拟垂钓工具的鱼竿部分也采用与受力强度相对应的颜色进行区分,用户在交互的过程中可根据VR画面中虚拟钓竿的鱼竿的颜色以及鱼竿/鱼线的受力曲线的颜色快速确定鱼竿/鱼线是否受力过载,确定控制策略。示例性如图3A至图3G所示,鱼竿/鱼线的受力曲线可以结合在二维坐标系中显示,用户将注意力集中在二维坐标系的图像区域时能够获得足够的反馈信息用于构建针对虚拟钓竿的控制策略组合。示例性地,在图3A至图3C所示实施例中,虚拟钓竿以及鱼竿/鱼线的受力曲线可以通过灰色显示;在图3D所示实施例中,虚拟钓竿以及鱼竿/鱼线的受力曲线可以通过蓝色显示;在图3E所示实施例中,虚拟钓竿以及鱼竿/鱼线的受力曲线可以通过红色显示;在图3F所示实施例中,虚拟钓竿以及鱼竿/鱼线的受力曲线可以通过蓝色和红色结合显示;在图3G所示实施例中,虚拟钓竿以及鱼竿/鱼线的受力曲线可以通过绿色显示。
在图3A至图3G所示的示意图中,在二维坐标系中还显示有垂钓深度信息,不同垂钓深度可能适合不同种类的鱼,显示垂钓深度信息有利于用户基于垂钓深度对虚拟钓竿进行调整,例如,调整竿节、竿帽、轮座、把手、导线环、挂钩器等任意一个或多个组成部分的规格,以适应相应垂钓深度中生存的鱼类。且显示垂钓深度信息,在鱼上钩状态下,还可以让用户了解已上钩的鱼的深度变化状态,指导用户执行收紧鱼线或者放长鱼线的操作,应理解,在鱼已上钩状态,鱼的在水中的深度与钓竿在水中达到的深度相同。如图3A至图3G所示,垂钓深度信息可以显示在二维坐标系所处图像区域的某一侧外边缘,可以尽量不遮挡二维坐标系中马达的震动频率和震动幅度的波形。
此外,参照图3A至图3G所示,为了营造更强的氛围感,可以在VR交互场景中通过增强现实(AR)的方式显示上述信息,例如,可以利用增强现实技术在VR交互场景中虚拟出一专用仪表装置,通过专用仪表装置显示反馈信息、鱼竿/鱼线的受力曲线以及垂钓深度信息等等,用户佩戴VR头显一体设备仿佛亲身置身于VR交互场景中,并能够观看到其中具有增强效果的专用仪表装置。
应理解,也可以将上述第一显示内容和第二显示内容组合显示在VR交互场景对应的VR画面中显示,不对VR交互场景进行增强;此外,显示时可以通过设置相应图像区域的透明度、亮度、显示色彩等等显示参数,以取得较好的显示效果。
还需要说明的是,图3A至图3G所示实施例中,虚线框内关于交互状态的文字说明以及指向二维坐标系中受力曲线的线条和文字可以不显示。或者,也可以在引导用户理解二维坐标系中的显示内容时显示,当用户熟悉二维坐标系中的显示内容的含义之后不再显示。
示例性地,以VR交互场景为VR拳击项目交互场景为例进行示例说明,其中,VR设备包括VR头显一体设备和VR手柄,VR头显一体设备中包安装有VR拳击程序,且能够基于VR拳击程序的控制显示相应的VR画面,用户可以通过佩戴VR头显一体设备并启动VR拳击程序以及通过VR手柄进行控制则可以体验VR拳击。
第一虚拟对象为VR拳击交互场景中的虚拟拳击手套(也可以理解为VR拳击程序提供的虚拟拳击手套,能够显示在VR画面中),第二虚拟对象为VR拳击程序提供的虚拟沙袋,用户通过操作VR手柄控制虚拟拳击手套与虚拟沙袋进行交互,VR手柄中设置有马达,在VR拳击交互场景中,VR手柄可以向VR拳击程序发送手柄数据,并得到VR全集程序基于手柄数据下发的反馈指令控制马达震动,从而模拟真实拳击场景中的拳击手套击中沙袋时的真实触感,用户可以体验接近真实的触感。
具体地,用户操作VR手柄时,VR手柄不断向VR头显一体设备发送手柄数据,VR头显一体设备中的VR拳击程序发基于手柄数据得到针对虚拟拳击手套的控制指令,并响应控制指令确定第一反馈指令和第二反馈指令,且将第一反馈指令和第二反馈指令发送给VR手柄,指示VR手柄执行第一反馈指令和第二反馈指令控制马达震动。
其中,第一反馈指令用于设置马达的震动幅度,其中可以包括马达的震动幅度大小的信息,第一反馈指令可根据用户针对虚拟拳击手套的控制所确定的控制参数以及虚拟拳击手套在VR场景中的属性参数确定,属性参数如虚拟拳击手套的击打力度;第二反馈指令用于设置马达的震动频率,其中可以包括马达的震动频率大小的信息,第二反馈指令可根据虚拟沙袋在VR场景中的属性参数确定,如受力程度等。
通过VR手柄执行第一反馈指令和第二反馈指令控制马达震动给到用户针对虚拟拳击手套的反馈和针对虚拟沙袋的反馈。
在该场景下,VR手柄中的马达可以为宽频马达,其能够实现通过震动幅度和震动频率两个维度针对虚拟拳击手套的反馈和针对虚拟沙袋分别反馈,给用户的反馈信息更丰富也便于用户根据不同的反馈理解和操作虚拟拳击手套,构建对于虚拟拳击手套的控制策略组合,提升拳击体验。
此外,在用户体验的过程中,可以基于第一反馈指令确定第一显示内容包括马达的震动幅度大小的信息,可以基于第二反馈指令确定第二显示内容包括马达的震动频率大小的信息。再将第一显示内容和第二显示内容组合显示在VR画面中。通过VR头显一体设备将马达的震动频率和震动幅度的信息组合显示在VR画面中,使得用户能够基于马达的震动频率和震动幅度了解虚拟拳击手套的击打力度、速度、虚拟沙袋的受力状态,从而快速确定针对虚拟拳击的控制策略。
其中,在交互过程中,通过VR头显一体设备将马达的震动频率以及震动幅度的信息并通过二维坐标系组合显示,当虚拟拳击手套未击中虚拟沙袋时,马达的震动频率和震动幅度为0,随着虚拟拳击手套与虚拟沙袋之间接触,马达的震动频率以及震动幅度增加,表示拳击力度加大,通过在VR画面中显示马达的震动频率和震动幅度的信息,用户可以确定控制策略为需要加大击打力度或者减小击打力度。此外,还可以在VR画面中显示虚拟拳击手套与虚拟沙袋之间的接触时长,用户还可以确定控制策略为加快击打速度或者减小击打速度。与VR垂钓交互场景类似,基于不同的击打力度和速度,可以采用不同的颜色显示,使得用户通过二维坐标系图像区域中显示的数据的颜色也能够快速构建控制策略组合。此外,在VR拳击交互场景中,也可以采用增强现实的方式显示反馈信息以及接触时长信息,营造氛围感。
在上述VR垂钓交互场景和VR拳击交互场景所示实施例中,VR手柄中的设置的马达为宽频马达,宽频马达的震动频范围较大、响应速度较快,能够满足VR交互场景还原真实世界触感的需求,且通过设置宽频马达在震动幅度和震动频率两个维度的状态,以给到用户更加丰富的反馈,方便用户理解交互状态和快速构建针对虚拟对象的控制策略组合。
类似地,本公开提供的方法还可以应用于其他VR交互场景,例如VR网球交互场景、VR乒乓球交互场景等等,通过类似的方式显示相应的反馈信息,能够使得用户能够快速构建控制策略,提升体验感受。
示例性地,本公开还提供一种交互装置。
图4为本公开一实施例提供的交互装置的结构示意图。请参阅图4,本实施例提供的交互装置400包括:
第一处理模块401,用于响应于对第一虚拟对象的控制指令,确定第一反馈指令和第二反馈指令,所述第一反馈指令与所述第一虚拟对象的控制参数和/或属性参数相关,所述第二反馈指令与第二虚拟对象的属性参数相关;其中,所述第一虚拟对象是由用户控制的虚拟对象,所述第二虚拟对象为所述第一虚拟对象的交互对象。
第二处理模块402,用于执行所述第一反馈指令和第二反馈指令。
在一些实施例中,第二处理模块402,具体用于向交互设备发送所述第一反馈指令和/或所述第二反馈指令,以使所述交互设备执行所述第一反馈指令和/或所述第二反馈指令。
在一些实施例中,第二处理模块402,具体用于向第一交互设备发送所述第一反馈指令和所述第二反馈指令,以使所述第一交互设备执行所述第一反馈指令和所述第二反馈指令,所述第一反馈指令与所述第二反馈指令类型不同。
在一些实施例中,所述第一交互设备为交互手柄,所述第一反馈指令和所述第二反馈指令分别用于设置手柄震动幅度和震动频率。
在一些实施例中,所述第一虚拟对象为虚拟垂钓工具,所述第二虚拟对象为虚拟垂钓对象。
在一些实施例中,第二处理模块402,具体用于向第一交互设备发送所述第一反馈指令以使所述第一交互设备执行所述第一反馈指令;以及,向第二交互设备发送所述第一反馈指令以使所述第二交互设备执行所述第二反馈指令。
在一些实施例中,还包括:显示模块403,用于组合显示第一显示内容和第二显示内容,所述第一显示内容对应第一反馈指令,所述第二显示内容对应所述第二反馈指令。
在一些实施例中,显示模块403,用于建立二维坐标系;在二维坐标系下组合显示所述第一显示内容和所述第二显示内容,所述第一显示内容和所述第二显示内容分别对应所述二维坐标系的不同坐标轴。
在一些实施例中,所述装置400应用于头戴式显示设备,所述头戴式显示设备用于显示虚拟现实场景,所述虚拟现实场景包括所述第一虚拟对象和所述第二虚拟对象。
本实施例提供的装置可以用于执行前述任一方法实施例的技术方案,其实现原理以及技术效果类似,可参照前述方法实施例的详细描述,简明起见,此处不再赘述。
示例性地,本公开提供一种电子设备,包括:一个或多个处理器;存储器;以及一个或多个计算机程序;其中一个或多个计算机程序被存储在存储器中;一个或多个处理器在执行一个或多个计算机程序时,使得电子设备实现前文实施例的交互方法。
示例性地,本公开提供一种芯片系统,芯片系统应用于包括存储器和传感器的电子设备;芯片系统包括:处理器;当处理器执行前文实施例的交互方法。
示例性地,本公开提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器使得电子设备执行时实现前文实施例的交互方法。
示例性地,本公开提供一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行前文实施例的交互方法。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (13)

1.一种交互方法,其特征在于,包括:
响应于对第一虚拟对象的控制指令,确定第一反馈指令和第二反馈指令,所述第一反馈指令与所述第一虚拟对象的控制参数和/或属性参数相关,所述第二反馈指令与第二虚拟对象的属性参数相关;其中,所述第一虚拟对象是由用户控制的虚拟对象,所述第二虚拟对象为所述第一虚拟对象的交互对象;
执行所述第一反馈指令和所述第二反馈指令。
2.根据权利要求1所述的方法,其特征在于,所述执行所述第一反馈指令和所述第二反馈指令,包括:
向交互设备发送所述第一反馈指令和/或所述第二反馈指令,以使所述交互设备执行所述第一反馈指令和/或所述第二反馈指令。
3.根据权利要求2所述的方法,其特征在于,所述向交互设备发送所述第一反馈指令和/或所述第二反馈指令,以使所述交互设备执行所述第一反馈指令和/或所述第二反馈指令,包括:
向第一交互设备发送所述第一反馈指令和所述第二反馈指令,以使所述第一交互设备执行所述第一反馈指令和所述第二反馈指令,所述第一反馈指令与所述第二反馈指令类型不同。
4.根据权利要求3所述的方法,其特征在于,所述第一交互设备为交互手柄,所述第一反馈指令和所述第二反馈指令分别用于设置手柄震动幅度和震动频率。
5.根据权利要求4所述的方法,其特征在于,所述第一虚拟对象为虚拟垂钓工具,所述第二虚拟对象为虚拟垂钓对象。
6.根据权利要求2所述的方法,其特征在于,所述向交互设备发送所述第一反馈指令和/或所述第二反馈指令,以使所述交互设备执行所述第一反馈指令和/或所述第二反馈指令,包括:
向第一交互设备发送所述第一反馈指令以使所述第一交互设备执行所述第一反馈指令;以及,
向第二交互设备发送所述第一反馈指令以使所述第二交互设备执行所述第二反馈指令。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
组合显示第一显示内容和第二显示内容,所述第一显示内容对应第一反馈指令,所述第二显示内容对应所述第二反馈指令。
8.根据权利要求7所述的方法,其特征在于,所述组合显示第一显示内容和第二显示内容,包括:
建立二维坐标系;在所述二维坐标系下组合显示所述第一显示内容和所述第二显示内容,所述第一显示内容和所述第二显示内容分别对应所述二维坐标系的不同坐标轴。
9.根据权利要求1所述的方法,其特征在于,所述方法应用于头戴式显示设备,所述头戴式显示设备用于显示虚拟现实场景,所述虚拟现实场景包括所述第一虚拟对象和所述第二虚拟对象。
10.一种交互装置,其特征在于,包括:
第一处理模块,用于响应于对第一虚拟对象的控制指令,确定第一反馈指令和第二反馈指令,所述第一反馈指令与所述第一虚拟对象的控制参数和/或属性参数相关,所述第二反馈指令与第二虚拟对象的属性参数相关;其中,所述第一虚拟对象是由用户控制的虚拟对象,所述第二虚拟对象为所述第一虚拟对象的交互对象;
第二处理模块,用于执行所述第一反馈指令和第二反馈指令。
11.一种电子设备,其特征在于,包括:存储器和处理器;
所述存储器被配置为存储计算机程序指令;
所述处理器被配置为执行所述计算机程序指令,使得所述电子设备实现如权利要求1至9任一项所述的交互方法。
12.一种可读存储介质,其特征在于,包括:计算机程序指令;
电子设备执行所述计算机程序指令,使得所述电子设备实现如权利要求1至9任一项所述的交互方法。
13.一种计算机程序产品,其特征在于,电子设备执行所述计算机程序产品,使得所述电子设备实现如权利要求1至9任一项所述的交互方法。
CN202211255891.6A 2022-10-13 2022-10-13 交互方法、装置、电子设备及可读存储介质 Pending CN117919719A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211255891.6A CN117919719A (zh) 2022-10-13 2022-10-13 交互方法、装置、电子设备及可读存储介质
US18/481,039 US20240126372A1 (en) 2022-10-13 2023-10-04 Interactive method, apparatus, electronic device and readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211255891.6A CN117919719A (zh) 2022-10-13 2022-10-13 交互方法、装置、电子设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN117919719A true CN117919719A (zh) 2024-04-26

Family

ID=90626179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211255891.6A Pending CN117919719A (zh) 2022-10-13 2022-10-13 交互方法、装置、电子设备及可读存储介质

Country Status (2)

Country Link
US (1) US20240126372A1 (zh)
CN (1) CN117919719A (zh)

Also Published As

Publication number Publication date
US20240126372A1 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
US10353464B2 (en) Gaze and saccade based graphical manipulation
US9898081B2 (en) Gaze and saccade based graphical manipulation
CN110168618B (zh) 增强现实控制系统和方法
WO2018051970A1 (ja) シミュレーションシステム、処理方法及び情報記憶媒体
US20160196694A1 (en) System and method for controlling immersiveness of head-worn displays
CN204745623U (zh) 可穿戴虚拟现实运动头盔及可穿戴虚拟动作游戏系统
JP6097377B1 (ja) 画像表示方法及びプログラム
US11644893B2 (en) Application processing system, method of processing application, and storage medium storing program for processing application
CN101785927A (zh) 一种互动式健身系统
JP2008005961A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP5425940B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
CN117919719A (zh) 交互方法、装置、电子设备及可读存储介质
JP5639526B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
CN109416614A (zh) 应用程序控制程序、应用程序控制方法以及应用程序控制系统
JP2013154125A (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP6416338B1 (ja) 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置
JP2019033906A (ja) 情報処理方法、プログラム及びコンピュータ
JP6441426B1 (ja) キャラクタ動画表示システム
KR20150136664A (ko) 크로마키 기법을 이용한 게임 시스템에서의 게임 캐릭터 표시방법
JP2018014084A (ja) 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
JP6941130B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP2004216169A (ja) ゲーム装置およびゲームプログラム
JP6948220B2 (ja) 仮想体験をユーザに提供するための方法、プログラム及びコンピュータ
JP6189496B1 (ja) 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
JP2008140352A (ja) コンピュータを用いた簡易毛筆文字描画装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination