CN1264123C - 虚拟空间控制数据接收装置及方法、发送接收系统 - Google Patents

虚拟空间控制数据接收装置及方法、发送接收系统 Download PDF

Info

Publication number
CN1264123C
CN1264123C CNB001086014A CN00108601A CN1264123C CN 1264123 C CN1264123 C CN 1264123C CN B001086014 A CNB001086014 A CN B001086014A CN 00108601 A CN00108601 A CN 00108601A CN 1264123 C CN1264123 C CN 1264123C
Authority
CN
China
Prior art keywords
data
control data
action
virtual space
manual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB001086014A
Other languages
English (en)
Other versions
CN1268723A (zh
Inventor
望月义幸
中俊弥
浅原重夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN1268723A publication Critical patent/CN1268723A/zh
Application granted granted Critical
Publication of CN1264123C publication Critical patent/CN1264123C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明的目的在于提供一种虚拟空间控制数据接收装置,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够实时地再现虚拟空间而且阅览者能有选择地控制物体。设置有根据控制活动虚拟空间的多个流形式的数据的种类来接收这种流数据的流数据接收装置、输入在虚拟空间中控制的对象的控制数据的手动数据输入装置以及对由所述手动数据输入装置控制的对象输出用所述手动数据输入装置输入的控制数据并对此外的对象输出由所述流数据接收装置接收到的流数据的控制数据输出装置。

Description

虚拟空间控制数据接收装置及方法、发送接收系统
技术领域
本发明涉及用来控制用以互联网之类的网络为基础的三维计算机图形(以下称三维CG)或静止图象、运动图象、声音、文本来表现的活动虚拟空间的虚拟空间控制数据接收装置、虚拟空间控制数据发送接收系统、虚拟空间控制数据接收方法以及虚拟空间控制数据接收程序记录媒体。
背景技术
最近,作为三维CG的利用领域,人们正在关注着WWW(World WideWweb)之类的互联网上的虚拟商店(Virtual Mall)、电子商务(ElectricCommerce)以及与其相关的各种家庭网页。特别是由于互联网的快速发展,在家庭内正在形成一个简单处理游戏或电影之类的较高品位的三维CG的环境。原来的WWW把称之为个人计算机等的多个客户的计算机经互联网被连接在称之为个人计算机或工作站等的服务器的计算机上,根据来自客户的要求,下载服务器提供的图象、声音、文本和窗口配置的信息等的数据,在客户侧再构筑起来,从而能够得到必要的信息。在该服务器和客户之间的通信中,采用基于TCP/IP(Transmission Cotrol/Internet Protocol)的通信方法。
原来,由服务器侧提供的数据主要只是文本数据和图象数据,但是,最近,VRML(Virtual Reality Modeling Language)或VRML的自动检索的标准化有所进展,传送构成场景的形状或文本数据等的三维CG数据也在发展。
这里简单说明上述的VRML。
像HTML(Hyper Text Markup Language)等那样,在以图象和文本为主体的原来的数据形式中,为了传送图象数据,特别是传送活动图象数据必须庞大的传送时间和传送成本。因此,在现有的系统中,网络传输信息量受制约。为此,在原来的三维CG中,包含形状在内,用三维数据来处理视点信息、光源信息等全部信息。随着三维CG技术的进步,生成图象的图象质量迅速提高,从数据量的观点来看,原样传送三维CG数据的方法也是非常有效的。通常,是传送同等图象数据的情况下的1/100以上的数据压缩率。因此,引起把经网络的三维CG数据的传送方法标准化的动向。作为其一的对策,提出了称之为VRML的三维CG数据的标准化方案(VRML Ver2.0)。在VRML Ver2.0中,规定有称之为基本数据单元的形状数据和各种光源数据、视点数据、文本数据等的数据格式以及刚体的移动的指定方法等。
另一方面,在原来的三维CG领域中最近被关注的还有实时生成图象的卡通技术,使用这种实时的卡通技术要以CM或电影为中心利用人工再现三维CG特征的真实动作。作为其中之一,是用骨骼构造来表现人类等的复杂的形状,并定义时时刻刻变化的骨骼的关节的移动量,从而能够自然地再现复杂的动作。
但是,用互联网上原来的把VRML作为中心的三维CG模拟语言不能够实时地把动作设定于具有人类等的复杂构造的形状。而且,实际情况是,经电话线路等的窄带网络也不能够实时地发送接收进行人类那样的真实动作的三维CG特征的动作数据。因此,应该解决该问题,以提供一种能够实时地发送接收三维CG特征的动作数据的多维流数据的发送接收装置作为目的,例如完成日本公开专利JP10-203007等的发明。
但是,在上述的发明中,虽然能够实时地再现如流数据那样的场景,然而阅览者却不能相互作用地参与这种场面,也不能够控制生成场景。例如:即使想要试着来控制虚拟空间中的物体,该物体只能按照虚拟空间的制作者的意图动作,也就是只能按照流数据动作,阅览者不能操作该物体。而且也不能够应答改变由阅览者想进行控制的物体的要求。
发明内容
鉴于上述的问题,本发明的目的是提供一种虚拟空间控制数据接收装置,不仅能够在用以互联网等网络为基础的三维CG或静止图象、运动图象、声音、文本等表现的活动虚拟空间内实时地再现虚拟空间,而且阅览者能够有选择地控制物体。
为解决上述问题,本发明采用一种虚拟空间控制数据接收装置,其特征在于设置有根据用于控制活动虚拟空间的多个流形式的数据的种类来接收流数据的流数据接收装置,输入在虚拟空间中控制的对象的控制数据的手动数据输入装置,以及对由所述手动数据输入装置控制的对象输出用所述手动数据输入装置输入的控制数据并对此外的对象输出由所述流数据接收装置接收到的流数据的控制数据输出装置。
本发明采用一种虚拟空间控制数据接收装置,其特征在于设置有根据用于控制活动虚拟空间的多个流形式的数据的种类来接收流数据的流数据接收装置,输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入装置,以及对由所述手动数据输入装置所选定的对象输出用所述手动数据输入装置输入的控制数据并对此外的对象输出由所述流数据接收装置接收到的流数据的控制数据输出装置。
本发明采用一种虚拟空间控制数据接收装置,其特征在于设置有接收流形式的数据流并分成为动作流数据和此外的流数据进行输出的流数据接收装置,输入对于手动进行动作控制的物体或物体的部位的动作数据的手动控制数据输入装置以及动作控制数据输出装置;所述动作控制数据输出装置对用由所述手动控制数据输入装置输入的动作数据进行控制的物体或物体的部位输出从所述手动控制数据输入装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
本发明采用一种虚拟空间控制数据接收装置,其特征在于设置有接收流形式的数据并分成为动作流数据和此外的流数据进行输出的流数据接收装置,输入对于手动进行动作控制的物体或物体的部位的控制数据的手动控制数据输入装置,把由所述手动控制数据输入装置输入的控制数据变换为适合于进行控制的物体或物体的部位的动作数据的手动控制数据变换装置,以及动作控制数据输出装置,所述动作控制数据输出装置对用由所述手动控制数据输入装置输入的控制数据进行控制的物体或物体的部位输出从所述手动控制数据变换装置输出的动作数据作为场景生成动作数据并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
本发明采用一种虚拟空间控制数据发送接收系统,由根据用于控制活动虚拟空间的多个流形式的数据的种类来发送流数据的虚拟空间控制数据发送装置和多个虚拟空间控制数据接收装置构成,其特征在于所述虚拟空间控制数据接收装置设置有根据从所述虚拟空间控制数据发送装置发送来的流数据的种类接收流形式的数据的流数据接收装置,输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入装置,把所述手动数据输入装置输入的选择数据和控制数据发送到其他虚拟空间控制数据接收装置的手动数据发送装置,接收由其他虚拟空间控制数据接收装置输入的选择数据和控制数据的手动数据接收装置,以及控制数据输出装置,所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动数据输入装置输入的控制数据,对由所述手动数据接收装置中的选择数据所选定的对象输出由所述手动数据接收装置接收到的控制数据,并对此外的对象输出由所述流数据接收装置接收到的流数据。
本发明采用一种虚拟空间控制数据发送接收系统,包含根据用于控制活动虚拟空间的多个流形式的数据的种类来发送流数据的虚拟空间控制数据发送装置、多个虚拟空间控制数据接收装置和手动控制数据传送装置,其特征在于所述虚拟空间控制数据接收装置设置有根据从所述虚拟空间控制数据发送装置发送来的流数据的种类接收流数据的流数据接收装置,输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入装置,把所述手动数据输入装置输入的选择数据和控制数据传送到所述手动控制数据传送装置的手动数据发送装置,接收由其他虚拟空间控制数据接收装置输入的从所述手动控制数据传送装置发送来的选择数据和控制数据的手动数据接收装置,以及控制数据输出装置,所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动数据输入装置输入的控制数据,对由所述手动数据接收装置中的选择数据选定的对象输出由所述手动数据接收装置接收到的控制数据,并对此外的对象输出由所述流数据接收装置接收到的流数据。
本发明采用一种虚拟空间控制数据接收方法,其特征在于具有如下步骤:根据用于控制活动虚拟空间的多个流形式的数据的种类来接收流数据的流数据接收步骤,输入在虚拟空间中控制的对象的控制数据的手动数据输入步骤,以及对由所述手动数据输入步骤控制的对象输出由所述手动数据输入步骤输入的控制数据并对此外的对象输出由所述流数据接收步骤接收到的流数据的控制数据输出步骤。
本发明采用一种虚拟空间控制数据接收方法,其特征在于具有如下步骤:根据用于控制活动虚拟空间的多个流形式的数据的种类来接收这种流数据的流数据接收步骤,输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入步骤,以及对由所述手动数据输入步骤选定的对象输出用所述手动数据输入步骤输入的控制数据并对此外的对象输出由所述流数据接收步骤接收到的流数据的控制数据输出步骤。
本发明采用一种虚拟空间控制数据接收方法,其特征在于具有如下步骤:接收流数据并分成为动作流数据和此外的流数据进行输出的流数据接收步骤;输入对于手动进行动作控制的物体或物体的部位的动作数据的手动控制数据输入步骤;以及对用由所述手动控制数据输入步骤输入的动作数据进行控制的物体或物体的部位输出在所述手动控制数据输入步骤输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出在所述流数据接收步骤输出的动作流数据作为场景生成动作数据的动作控制数据输出步骤。
本发明采用一种虚拟空间控制数据接收方法,其特征在于具有如下步骤:接收流数据并分成为动作流数据和此外的流数据进行输出的流数据接收步骤;输入对于手动进行动作控制的物体或物体的部位的控制数据的手动控制数据输入步骤;把在所述手动控制数据输入步骤输入的控制数据变换为适合于进行控制的物体或物体的部位的动作数据的手动控制数据变换步骤;以及对用由所述手动控制数据输入步骤输入的控制数据进行控制的物体或物体的部位输出由所述手动控制数据变换步骤输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出由所述流数据接收步骤输出的动作流数据作为场景生成动作数据的动作控制数据输出步骤。
附图说明
图1是本发明的第一实施例中的虚拟空间控制数据接收装置的构成图。
图2是表示本发明的第一实施例中的控制数据输出装置的构成和同步动作的说明图。
图3是本发明的第二实施例中的虚拟空间控制数据接收装置的构成图。
图4是本发明的第三实施例中的虚拟空间控制数据发送接收系统的构成图。
图5是本发明的第四实施例中的虚拟空间控制数据接收装置的构成图。
图6是本发明的第五实方施例中的虚拟空间控制数据接收装置的构成图。
图7是本发明的第六实施例中的虚拟空间控制数据接收装置的构成图。
图8是本发明的第七实施例中的虚拟空间控制数据接收装置的构成图。
图9(a)是信道定义分组和数据分组的说明图。
(b)是信道定义分细和数据分组的发送方法的说明图。
图10(a)是流数据的多步(多插入)处理的说明图。
    (b)是流数据的双缓冲器处理的说明图。
图11(a)是移动物体或物体的部位的控制说明图。
    (b)是由1链节构成的物体或物体的部位的控制说明图。
    (c)是由3链节构成的物体或物体的部位的控制说明图。
图12(a)是物体选择的说明图。
    (b)是物体的部位选择的说明图。
图13(a)是控制数据分组的说明图。
    (b)是控制数据分组的发送方法的说明图。
    (c)是选择数据分组的说明图。
    (d)是选择数据分细和控制数据分组的发送方法的说明图。
图14是利用互联网的游戏的说明图。
具体实施方式
(实施例1)
以下参照附图来说明本发明的实施例1的虚拟空间控制数据接收装置。其中,所谓活动虚拟空间是由三维CG和声音构筑的虚拟空间,定义为包含在虚拟空间中的构成物是活动的虚拟空间,即:定义为包含有与时间的经过同时移动、变形、变更构成物、变更被变换后的纹理(包含动画变换)、变换声音等随时间的经过而变化的要素的虚拟空间。对于三维CG,除通常的三维CG技术之外还包含三维CG卡通技术。
图1是本发明的第一实施例中的虚拟空间控制数据接收装置的构成图。1是流数据接收装置,2是手动数据输入装置,3是手动控制数据变换装置,4是控制数据输出装置,5是场景数据生成装置,6是绘画装置,7是显示装置,8是声音输出装置。
图2是控制数据输出装置的构成和同步动作的说明图。图中,9是写入缓冲器,10是声音信息和场景信息识别装置,11FIFO是(存储器),12是同步输出装置。
以下对上面那样构成的虚拟空间控制数据接收装置的各处理进行详细说明。
从外部装置把多个流形式的数据输入到流数据接收装置1中,把该流形式的数据称之为流数据,并根据流数据的种类把信道分配给各个流数据,在把具有单一含义的信道号码附加到各信道上。图9(a)、(b)表示流数据格式的例子,流数据按称之为分组的单位发送数据。在分组中有信道定义分组和数据分组两种,图9(a)表示了这两种分组的内部构成,它们都由标题部分和数据部分构成。在信道定义分组的情况下,标题部分包括:表示是信道定义分组还是数据分组的分组识别符、表示生成该分组的由某基准时开始时刻的时间标记、可发送的信道的总数Tc、表示发送数据的压缩方法的压缩方法识别符在压缩方法是多个的情况下对每个信道都规定、表示分组大小的分组尺寸。对于一个信道来说,信道定义分组的数据部分由表示信道号码的信道识别符、该信道的数据大小、表示该信道的数据种类(矢量型数据或标量型数据等)的信道类型、表示该信道的数据名称的信道名构成,该部分的数量是信道总数Tc。同样,数据分组的标题部分由表示其自身是数据分组的分组识别符、表示生成该分组的由某基准时开始时刻的时间标记、自身发送信道的总数Dc(其中Dc≤Tc)构成,对于一个信道来说,数据部分由表示信道号码的信道识别符、发送数据即压缩或非压缩数据(称之为信道数据)的分组大小构成,该部分有信道总数Dc。该分组与一般被用作发送单位的称之为数据块的单位是同等的。图9(b)表示了这些分组的发送方法,首先发送信道定义分组,再发送对应于该信道定义分组的数据分组。在发送中想要变更信道定义的情况下,发送定义变更内容的新的信道定义分组,然后,发送对应于新的信道定义分组的数据分组。
流数据接收装置1接收上述的流数据,接收信道定义分组和数据分组,然后把使该数据再构成原始的流数据的接收后流数据输出到控制数据输出装置4。在所输入的流数据被压缩的情况下,按照对应于该压缩方法进行扩展,从而再构成流数据。
手动数据输入装置2进行控制对象的选择和控制数据的输入,并把所输入的选择数据输出到手动控制数据变换装置3和控制数据输出装置4,把所输入的控制数据(输入控制数据)送到手动控制数据变换装置3。作为手动数据输入装置2在现有技术中,例如可以使用鼠标器、键盘、控制杆、操纵盘、数据图表、实时·运动捕获系统等。在声音等成为输入对象的情况下,可以使用话筒或键盘等。操作者对用手动活动地进行控制的对象物预先附加一个识别符(或号码),并把该识别符作为选择数据输入。在显示装置7和手动数据输入装置2连动的情况下,也可以选择表示显示画面中的控制对象的区域的内部点,再由该内部点数据计算出控制对象的识别符。
手动控制数据变换装置3把由手动数据输入装置2输入的控制数据变换为控制对象的控制数据,该变换过的控制数据被作为变换后控制数据送到控制数据输出装置4。由手动数据输入装置2输出的输入控制数据不一定是控制对象的控制数据,所以就必须设置手动控制数据变换装置3。由于控制对象是多个,所以必须变换为每个控制对象的控制数据。例如:在用8比特的数值数据的手动数据输入装置2的输入数据对控制对象进行角度控制的情况下,必须把这8比特的数据变换为角度数据,在对控制对象进行移动速度控制的情况下,就必须变换为速度数据。另一方面,例如控制对象仅仅是用通断来控制的情况下,如果手动数据输入装置2能够输入2比特,因为可以发送该数据,所以手动控制数据变换装置3不是必要的。也就是说,能够用同一的控制数据来控制全部控制对象,在不必变换输入控制数据的情况下,就能够省略该手动控制数据变换装置3。
控制数据输出装置4对用手动数据输入装置2输入的选择数据选定的控制对象输出从手动控制数据变换装置3输出的变换后控制数据,而对此外的控制对象输出从流数据接收装置1送来的接收后流数据。例如:在有多个移动物体的情况下,手动进行这种移动控制时,把变换后控制数据输出到所选定的控制对象,而把对此外的移动物体输出接收后流数据。所输出的数据根据其种类被发送出去,在声音数据的情况下,作为声音信息被发送到声音输出装置8,在进行按照三维CG的虚拟空间的场景构成的数据的情况下,作为场景信息被发送到场景数据生成装置5。因为控制数据输出装置4是所谓转换开关,所以准备有表示对控制对象的识别符及其对象是依据声音信息的对象或是依据场景信息的对象的表,并可以根据该表来决定输出数据和输出地址。
下面来说明控制数据输出装置4的同步动作。在帧重放时刻,写入缓冲器9一面更新从手动控制数据变换装置3收到的变换后控制数据一面写入保存起来,最后输出被写入的数据。声音信息和场景信息识别装置10识别从流数据接收装置1接收到的接收后流数据,把声音信息送到声音输出装置8,而把场景信息写入到FIFO11中。同步输出装置12输出同步信号时,读出被写入到写入缓冲器9内的数据,并从FIFO11读出数据,然后输出场景信息。这时,如果在FIFO11的场景信息中存在与被写入在写入缓冲器9内的变换后控制数据重复的数据,则从写入缓冲器9输出变换后控制数据,而不从FIFO11输出重复的场景信息。
在场景数据生成装置5中,由控制数据输出装置4送来的场景信息和为构成预先保持的虚拟空间的三维CG数据构成每帧时刻的场景。
绘画装置6是进行三维CG图象生成的装置,所生成的三维CG图象由显示装置7来显示。现在,作为绘画装置6,可以利用市售的产品作为三维CG绘画板,作为显示装置,可以利用CRT或液晶显示器等。
声音输出装置8根据所输入的声音信息向外部输出声音,例如:一般可以利用市售的声音板和话筒、在声音信息是MIDI信号的情况下,可以利用MIDI板、音源数据和话筒等。
为了以分组为单位把流数据发送出来,缓冲存储输入数据后再进行扩展的处理、和此后的绘画或显示处理、声音输出处理等进行如图10(a)所示的多步处理或多插入处理,这在处理速度方面是有效的。在双缓冲器的情况下,如图10(b)所示,一面切换缓冲器1和缓冲器2一面进行缓冲存储和扩展就可以保证流数据的连续性更加牢固。
这样,本发明的第一实施例中的虚拟空间控制数据接收装置设置有根据控制活动虚拟空间的多个流形式的数据的种类来接收这种流数据的流数据接收装置、输入在虚拟空间中选择控制的对象的控制数据和选择对象的控制数据的手动数据输入装置以及对由所述手动数据输入装置选择的对象输出用所述手动数据输入置输入的控制数据并对此外的对象输出由所述流数据接收装置接收到的流数据的控制数据输出装置。因此,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够自由选择成为控制对象的物体并按照其意图动作。
本发明的第一实施例的虚拟空间控制数据接收装置设置有把由手动数据输入装置输入的控制数据变换为对应于由手动数据输入装置选定的对象的控制数据的手动控制数据变换装置;控制数据输出装置对由手动数据输入装置选定的对象输出由手动控制数据变换装置变换了的控制数据,并对此外的对象输出流数据接收装置接收到的流数据。因此,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够输入同一的控制数据来控制全部控制对象等的多个物体。
本发明的第一实施例的虚拟空间控制数据接收装置设置有生成由所述控制数据输出装置输出的数据构成虚拟空间的场景数据的场景数据生成装置、根据所述场景数据生成装置所生成的场景数据生成图象数据的绘画装置以及显示所述绘画装置生成的图象数据的显示装置。因此,能够基于以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本等数据来表现活动虚拟空间。
(实施例2)
图3是本发明的第二实施例的虚拟空间控制数据接收装置的构成图。21是流数据发送装置,22是客户装置A,23是客户装置B,24是数据发送接收线,25是流数据接收装置,26是手动数据输入装置,27是手动数据发送装置,28是手动数据接收装置,29是手动控制数据变换装置,30是控制数据输出装置,31是场景数据生成装置,32是绘画装置,33是显示装置,34是声音输出装置。
客户装置B23与客户装置A22是同样的构成。在第二实施例中,取两台客户装置来进行各处理的说明,但是,即使在两台以上的客户装置处理的内容也是同样的。因此,本发明的第二实施例包含两台以上客户装置的情况下的构成。
场景数据生成装置31、绘画装置32、显示装置33、声音输出装置34分别与本发明的第一实施例的场景数据生成装置5、绘画装置6、显示装置7、声音输出装置8是同样的。
下面来详细说明按照以上构成的虚拟空间控制数据接收装置的各处理。
流数据发送装置21把前述的流形式的数据发送到客户装置A22和客户装置B23,作为发送方法,例如使用广播方法经数据发送接收线24来进行。数据发送接收线24使用例如互联网、电话线路、专用线路、教学网之类的网络线路。
与第一实施例的流数据接收装置1同样,在客户装置A22中,流数据接收装置25接收由流数据发送装置21广播的流数据;将接收到的流数据进行了与第一实施例的流数据接收装置1同样的处理之后,作为接收后流数据输出到控制数据输出装置30。
与第一实施例的流数据接收装置1同样,手动数据输入装置26进行控制对象的选择数据及其控制数据的输入,输入选择数据被输出到手动数据发送装置27、手动控制数据变换装置29以及控制数据输出装置30;而输入控制数据被输出到手动数据发送装置27、手动控制数据变换装置29。
手动数据发送装置27接收到由手动数据输入装置26输出的选择数据和输入控制数据之后,经数据发送接收线24发送到其他客户装置,在本发明的第二实施例的情况下,是发送到客户装置B23。在压缩发送输入控制数据的情况下,由手动数据发送装置27进行压缩。发送方法采用图13(a)、(c)所示的形式的选择数据分组和控制数据分组的分组(数据块)形式来进行,这两个统称为数据分组,并称之为发送手动数据。选择数据分组的标题部分由发送的客户装置的识别号码构成,例如:由TCP/IP地址之类的客户识别符、表示是选择数据分组的分组识别符、用于特定控制对象的控制对象识别符、表示生成了该分组的从某个基准时开始的时刻的时间标记、可发送的信道的总数Tc、表示发送控制数据的压缩方法的压缩方法识别符(在压缩方法有多个的情况下,规定到每一个信道)、表示分组大小的分组尺寸构成。对于一个信道来说,选择数据分组的数据部分由表示信道号码的信道识别符、该信道的数据大小、表示该信道的数据种类(表示是矢量数据和标量数醋)的信道类型、表示该信道的数据名称的信道名构成,该部分有信道总数Tc。同样,控制数据的数据部分由客户识别符、表示自身是控制数据分组的分组识别符、表示生成该分组的从某个基准时间开始的时刻的时间标志、自身发送的信道总数Dc(其中Dc≤Tc)构成,对于一个信道来说,数据部分由表示信道号码的信道识别符、发送数据即压缩或非压缩数据的分组大小构成,该部分的数量是信道总数Dc。图13(d)表示了这些分组的发送方法,首先发送选择数据分组,然后随时发送控制数据分组。可是,在进行了控制对象的变更时,发送对应于新的控制对象的选择数据分组,同样,还发送该控制对象的控制数据分组。
手动数据接收装置28接收由其他客户装置送来的接收手动数据,在本发明的第二实施例的情况下,是接收从客户装置B23送来的接收手动数据。接收到的接收手动数据把由选择数据分组指定控制对象的接收选择数据输出到手动控制数据变换装置29和控制数据输出装置30,并从接收到的接收手动数据的控制数据分组向手动控制数据变换装置29输出对该控制对象的控制数据即接收控制数据。在接收手动数据被压缩的情况下,由手动数据接收装置28进行扩展。
手动控制数据变换装置29进行与本发明的第一实施例的手动控制数据变换装置3同样的处理,把变换后控制数据输出到控制数据输出装置30。但是,除由手动数据输入装置26输出的控制数据之外,处理对象还包含由手动数据接收装置28输出的接收控制数据。在本发明的第二实施例中,只有来自客户装置B23的接收数据,在进一步增加台数的情况下,对于该接收控制数据也进行与本发明的第一实施例的手动控制数据变换装置3同样的处理。
与本发明的第一实施例的控制数据输出装置4一样,控制数据输出装置30对于根据手动数据输入装置26输入的选择数据选定的控制对象和根据从手动数据接收装置28输出的接收选择数据选定的控制对象输出由手动控制数据变换装置29输出的变换后控制数据,对此外的控制对象输出从流数据接收装置25送来的接收后流数据,把场景信息输出到场景数据生成装置31,把声音信息输出到声音输出装置34。
这样,本发明的第二实施例中的虚拟空间控制数据接收装置设置有把由所述手动数据输入装置输入的选择数据和控制数据发送到其他虚拟空间控制数据接收装置的手动数据发送装置以及接收其他的虚拟空间控制数据接收装置所输入的选择数据和控制数据的手动数据接收装置;所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动数据输入装置输入的控制数据,对由手动数据接收装置中选择数据控制的对象输出由手动数据接收装置接收的控制数据,并对此外的对象输出所述流数据接收装置接收到的流数据。因此,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,能够再现由其他虚拟空间控制数据接收装置控制的物体的动作。
(实施例3)
图4是本发明的第三实施例中的虚拟空间控制数据发送接收系统的构成图。51是流数据发送装置,52是客户装置A,53是客户装置B,54是手动控制数据传送装置,55是数据发送接收线,56是流数据接收装置,57是手动数据输入装置,58是手动数据发送装置,59是手动数据接收装置,60是手动控制数据变换装置,61是控制数据输出装置,62是场景数据生成装置,63是绘画装置,64是显示装置,65是声音输出装置。客户装置B53与客户装置A52的构成相同。在第三实施例中,取2台客户装置进行各处理的说明,但是即使在2台以上的情况下,处理的内容也是一样的。因此,本发明的第三实施例包含有2台以上的情况的构成。
场景数据生成装置62、绘画装置63、显示装置64、声音输出装置65分别与本发明的第一实施例的场景数据生成装置5、绘画装置6、显示装置7、声音输出装置8是一样的。
以下来详细说明上面那样构成的虚拟空间控制数据发送接收系统的各处理。
与本发明的第二实施例的流数据发送装置21一样,流数据发送装置51经数据发送接收线55发送流数据。
与本发明的第二实施例的流数据接收装置25一样,在客户装置A52中,流数据接收装置56接收经数据发送接收线55送来的流数据,来进行处理,并作为接收后流数据输出到控制数据输出装置61。
与本发明的第二实施例的手动数据输入装置26一样,手动数据输入装置57把所输入的选择数据输出到手动数据发送装置58、手动控制数据变换装置60、控制数据输出装置61,并把输入控制数据输出到手动数据发送装置58和手动控制数据变换装置60。
手动数据发送装置58接收到从手动数据输入装置57输出的选择数据和输入控制数据之后,经经数据发送接收线55把发送手动数据发送到手动控制数据传送装置54。关于发送手动数据,与本发明的第二实施例中所说明的发送手动数据是一样的。
在本发明的第三实施例中,手动控制数据传送装置54接收由客户装置A52和客户装置B53发送来的发送手动数据,并作为接收手动数据传送到能发送的客户装置以外的多个客户装置。在本发明的第三实施例中,例如把由客户装置A52发送的发送手动数据只送到客户装置B53一台,但是,如果进行排他处理,也可以对应于2台以上的情况。
手动数据接收装置59接收从手动控制数据传送装置54发送来的接收手动数据。与本发明的第二实施例的手动数据接收装置28一样,接收到的接收手动数据把由选择数据分组指定控制对象的接收选择数据输出到手动控制数据变换装置60和控制数据输出装置61,并从接收到的接收手动数据的控制数据分组向手动控制数据变换装置60输出对该控制对象的控制数据即接收控制数据。在接收手动数据被压缩的情况下,由手动数据接收装置59进行扩展。
手动控制数据变换装置60进行与本发明的第二实施例的手动控制数据变换装置29同样的处理,并向控制数据输出装置61输出变换后控制数据。
与本发明的第二实施例的控制数据输出装置30一样,控制数据输出装置61对于根据手动数据输入装置57输入的选择数据选定的控制对象和根据从手动数据接收装置59输出的接收选择数据选定的控制对象输出由手动控制数据变换装置60输出的变换后控制数据,对此外的控制对象输出从流数据接收装置59送来的接收后流数据,把场景信息输出到场景数据生成装置56,把声音信息输出到声音输出装置65。
本发明的第一、第二、第三实施例的各处理可以与时间同步地进行,但是,特别是在控制数据输出装置4、控制数据输出装置30、控制数据输出装置61中进行同步处理,这在进行声音和虚拟空间的同步控制控制方面是有效的。另外,本发明的第一、第二实施例和服务器客户模式的服务器计算机结合起来就能够实现虚拟空间控制数据发送接收系统。
这样,表面的第三实施例的虚拟空间控制数据发送接收系统设置有根据控制活动虚拟空间的多个流形式的数据的种类来发送这种流数据的虚拟空间控制数据发送装置、多个虚拟空间控制数据接收装置和传送由虚拟空间控制数据接收装置输入的选择数据和控制数据的手动控制数据传送装置,由于手动控制数据传送装置进行排他处理,所以也能够连接2台以上的虚拟空间控制数据接收装置,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够再现由其他虚拟空间控制数据接收装置控制的物体的动作,而且阅览者能够按照其意图使成为控制对象的物体动作。
(实施例4)
以下参照附图来说明本发明的第四实施例的虚拟空间控制数据接收装置。
图5是本发明的第四实施例的虚拟空间控制数据接收装置的构成图。71是流数据接收装置,72是手动控制数据输入装置,73是手动控制数据变换装置,74是动作控制数据输出装置,75是场景数据生成装置,76是绘画装置,77是显示装置。
下面来详细说明按照以上构成的各处理。
流数据接收装置71接收信道定义分组和数据分组,并从信道定义分组的记述内容判别相当于动作流数据的信道和此外的信道,判别之后,由相当于动作流数据的信道的数据分组再构成动作流数据,并输出到动作控制数据输出装置74。关于此外的分组传送到别的处理系统。直到再发送信道定义分组为止,由于不变更信道定义,所以固定对应于动作流数据的信道,并对该固定的信道的数据进行动作流数据的再构成。再发送信道定义分组时,判别再发送的信道定义分组的记述内容,根据变更过的信道定义,由相当于动作流数据的信道数据再构成动作流数据,对于此外的信道数据来说,与前述的一样,传送到别的处理系统。相当于发送来的动作流数据的信道数据被压缩的情况下,再构成动作流数据时,进行对应于该压缩方法的扩展处理之后再构成动作流数据。
这里,用图11(a)、(b)、(c)来简单说明物体及物体的部位的手动控制。图11(a)是物体的手动控制的说明图。物体的移动能够用例如牛顿运动方程来记述,所以在手动控制物体移动的情况下,赋予各时刻位置的物体移动,如果赋予物体的速度和移动方向或速度加速度、外力等,就能够控制该物体的移动。这里,考虑速度和移动方向时,物体的移动方向可以作成为三维空间的矢量成分,或把该成分变换为极坐标表示。图11(a)表示用极坐标的两个分量(α,β)赋予移动方向并用速度v赋予单位时间的移动量的情况,这时,把Δt后的物体的位置设为(x′,y′,z′),当前的位置为(x,y,z),那么
x′=x+vsinβcosα×Δty′=y+vsinβsinα×Δtz′=z+vcosβ×Δt
然后来说明物体的部位的控制,例如说明平面约束的图11(b)的1连杆的转动的情况和图11(c)所示的3连杆的情况。图11(b)表示物体由本体和1连杆的手腕构成的情况,在把图11(b)所示的局部坐标系定义到物体的本体上时,连杆的前端部可以用关节角度θ来记述,即:如果连杆的长度为L,前端部的位置为局部坐标系的坐标(x,y),则
x=Leosθy=Lsinθ
如果在该连杆中规定的旋转变换系内使三维CG形状数据(表面数据等)联动,就能使该形状自身动作。这是被称之为骨骼动画的三维CG动画控制方法的基础。
图11(c)是三个连杆的情况,设图的各关节角度为θ1、θ2、θ3,因为表达式复杂,所以被省略了,一般结合位置或前端部的位置和关节角度的关系可以用关节角度θ1、θ2、θ3的旋转变换系列来表述。由关节角度来计算结合位置或前端部的位置的方法称之为顺运动学方法,反之,由前端部位计算关节角度数据的方法称之为逆运动学方法,一般这种方法都是计算机·作图·动画中的骨骼动画或自控装置工艺学所公知的方法。另一方面,因为结合位置或前端部的位置和关节角度的关系在时间固定时也可以用例如重力场中的势能方程式按照静力学表示出来,所以,如果附加势能最小的状态的稳定条件,并把结合位置或前端部的位置和关节角度的关系赋予某一方,就能够计算出另一方。另外,也可以按照动力学那样的记述,这种情况下,可以用拉格伦日运动方程式或牛顿·欧拉运动方程式来记述转矩和关节角度的关系。这时,一旦赋予各时刻的转矩,解这个运动方程式就能算出关节角度。如前所述,如果在该连杆所规定的旋转变换系中使三维CG形状联动,该形状自身就能动作。例如:能够这样来控制人的手腕或脚腕。即使增加连杆的数量,一般说来,以上的方法也能够扩展。在记述例中,为简化起见,列举了约束在二维平面内的旋转运动,但是,三维空间中的旋转运动也是同样的原理,如果把局部坐标系设定于各连杆并使用欧拉法或按Denavit-Hartenberg的记述法,虽然数学式复杂,但是能够作为数学式表达出来。
在这样的多连杆系的情况下,因为一般用顺运动学方法来算出物体的部位的各时刻的状态是简单的(因为能够用旋转变换系来记述),所以,大多把关节角度作为动作数据。另一方面,在进行腕和手脚等的控制的情况下,因为多半都是把前端部的位置作为作用部位,所以,考虑赋予前端部的位置对于其外界的作用的情况下,控制更加容易。为了由该前端部的位置来规定物体部位的状态,就必须进行向关节角度(动作数据)的变换。因此,输入前端部的位置作为控制数据。
手动控制数据输入装置72是用来进行控制数据的输入的装置,该控制数据是用来进行按照操作者的意图动作的物体或物体的部位的控制(手动控制)的数据。例如:在现有技术中,这种装置是鼠标器、键盘、控制杆、操纵盘、数据图表、实时运动捕获系统等。
在用手动控制数据输入装置72直接输入动作数据的情况下,必须由手动控制数据变换装置73进行变换,但是在输入控制数据的情况下,必须变换为用来计算各时刻的物体或物体的部位的状态的动作数据。手动控制数据变换装置73是进行这种变换的装置。
例如:在图11(a)的情况下,决定最大速度和最小速度或α、β的范围,考虑在这些范围内把值量化并编码的情况。这种情况下,手动控制数据输入装置72输入该代码值作为控制数据,手动控制数据变换装置73必须把它变换为实际物体的各时刻的位置即动作数据。作为这种变换方法,预先准备有一个表,该表以代码值为变量,以所对应的速度值、α、β的值为表值。参照该表由手动控制数据输入装置72输入的控制数据(代码值)计算出速度值、α、β的值。再用该计算值来解上述的物理方程式,由当前时刻的位置加上向下一个时刻的移动量,就能够得到动作数据即各时刻的物体的位置。
在图11(b)的情况下,把前端部或关节角度θ作为动作数据(记述连杆状态的数据),例如,如果固定环节长度,前端部的可动范围在局部坐标系中是有限的,所以,就要准备一个表,该表以把该有限区域量化并把编码过的值作为表的变量而保持,以与此相对应的前端位置作为表参照值而保持。手动控制数据输入装置72输入代码值为控制数据,手动控制数据变换装置73能够以所输入的代码值作为变量,参照表来计算出前端部的位置。如果计算关节角速度或关节各速度,因为能够通过解牛顿运动方程来计算出各时刻的关节角(预先赋予惯性动量),手动控制数据输入装置72输入关节角速度或关节角加速度,并用手动控制数据变换装置73来解运动方程式,也能变换为动作数据即关节角数据。在这种情况下,如果把关节速度或关节角速度限定在有限的范围内,并进行量化编码,也能够用与图11(a)同样的方法来进行变换。
在图11(c)的情况下,考虑根据上述的理由把前端部的位置作为控制数据来输入的情况。与图11(b)的情况一样,如果固定环节长度,前端部的可动范围在局部坐标系中是有限的,所以就要保持该有限区域量化并编码的值作为表的变量,由表的参照值来计算出该量化了的前端部的位置的状态中的关节角度数据(动作数据)。该表参照值的计算可以用所谓位能最小条件来算出上述的位能方程式。一旦手动控制数据输入装置72输入控制数据(代码值),手动控制数据变换装置73就参照表由所输入的代码值变换为关节角度。并且准备有一个以前端部可动范围的代表值为表的变量、以该位置的关节角度为参照值并保持的表,手动控制数据输入装置72输入前端部的位置作为控制数据,来求出该输入值附近的变量,再利用输入值和变量值的关系对该变量的表参照值进行双线形内插或按照仿样函数的曲面内插,由此也能够计算出对应于该输入值的关节角度。
不进行表格化,而在教学网中学习对应于代表位置的关节角度的计算,如果把手动控制数据输入装置72的控制数据输入到该教学网中,作为输出,就可以得到关节角度。一般作为教学网,可以利用由输入层、中间层、输出层构成的3层的带有反向传播的网络。
另一方面,因为表参照值或教学网的学习值本身是解物理方程式得到的,所以,通过直接解运动方程式可以从手动控制数据输入装置72输入的前端部的位置计算出关节角度。在能够从输入或控制数据算出前端部的速度的情况下,就能够解所谓逆反运动学来得到关节角度。但是,这样直接通过物理方程式进行变换的情况下,必须考虑兼顾到计算时间。
动作控制数据输出装置74对于手动控制的物体或物体的控制部位输出由手动控制数据变换装置73输出的动作数据作为场景生成动作数据,对此外的控制对象输出从流数据接收装置71送来的动作流数据作为场景生成数据。这种情况下,进行动作控制的物体或物体的部位之中用手动进行控制的部位就被固定下来或能够由识别符进行识别。
在场景数据生成装置75中,由动作控制数据输出装置74输出的各帧时刻的场景生成动作数据和从外部供给的场景构成所必要的其他数据(三维形状数据、摄影机数据、文本数据、光源数据、碰撞标记用的数据、照度标记用的数据等)来生成场景数据。但是,如上所述,所谓场景生成数据是动作数据,也就是能够计算出各时刻的移动物体的位置或骨骼构造的状态的时间系列数据。由该动作数据来求出变换系列等,并把控制物体变换为规定的三维形状,然后记述各时刻的三维形状的状态(构成三维形状的各多边形的顶点的位置等)。其中其他的控制对象以外的物体的形状或表示摄影机状态、文本粘贴方法、光源状态的附加了其他计算机作图数据的数据是场景数据。即:生成各时刻的三维CG图象所必要的数据是场景数据。
绘画装置76是由场景数据生成装置75输出的场景数据进行三维CG图象生成的装置。作为三维CG图象生成的方法,亮度值的计算方法一般可以采用公知的音素成荫、亮度成荫等方法,作为隐含面消除的方法,可以采用Z缓冲法或扫描线Z缓冲法。当使用文本标记或碰撞标记、照度标记、阴影·标记手法时,可以更加增强真实感并能够提高图象品位。绘画装置76生成的三维CG图象的图象数据用显示装置77来显示。现在,作为绘画装置76可以利用市售的三维CG绘画板,作为显示装置77可以利用CRT或液晶显示器。
本发明的第四实施例的各处理是时间同步地进行的,特别是,由动作数据输出装置74进行同步处理在使场景数据的生成到图象数据的显示的处理流水线化方面是有效的。
这样,由于本发明的第四实施例的虚拟空间控制数据接收装置设置有接收流数据并分成为动作流数据和此外的流数据进行输出的流数据接收装置、对手动进行动作控制的物体或物体的部位输入动作数据的手动控制数据输入装置以及对用手动控制数据输入装置输入的动作数据进行控制的物体或物体的部位输出手动控制数据输入装置输出的动作数据作为场景生成动作数据并对此外的物体或物体的部位输出流数据接收装置输出的动作流数据作为场景生成动作数据的动作控制数据输出装置,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够按照其意图使成为控制对象的物体动作。
由于本发明的第四实施例的虚拟空间控制数据接收装置设置有把手动控制数据输入装置输入的控制数据变换为适合于进行控制的物体或物体的部位的动作数据的手动控制数据变换装置,动作控制数据输出装置对由所述手动控制数据输入装置输入的控制数据进行控制的物体或物体的部位输出从所述手动控制数据变换装置输出的动作数据作为场景生成动作数据并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够通过输入同样的控制数据来使全部控制的物体或物体的部位动作。
由于本发明的第四实施例的虚拟空间控制数据接收装置的动作控制数据输出装置在时间上同步地对由手动控制数据输入装置输入的动作数据进行控制的物体或物体的部位输出场景生成动作数据和对此外的物体或物体的部位输出场景生成动作数据,所以,阅览者能够配合用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间再现控制的物体或物体的部位的动作。
由于本发明的第四实施例的虚拟空间控制数据接收装置的手动控制数据变换装置在把所输入的控制数据变换为物体或物体部位的动作数据时使用表格化的变换数据,所以能够容易地把控制数据变换为动作数据。
由于本发明的第四实施例的虚拟空间控制数据接收装置的手动控制数据变换装置在把所输入的控制数据变换为物体或物体部位的动作数据时插入表格化的关键变换数据,所以能够容易地地控制数据变换为动作数据。
由于本发明的第四实施例的虚拟空间控制数据接收装置的手动控制数据变换装置在把所输入的控制数据变换为物体或物体部位的动作数据时使用预先学习的教学网,所以能够容易地把控制数据变换为动作数据。
由于本发明的第四实施例的虚拟空间控制数据接收装置的手动控制数据变换装置在把所输入的控制数据变换为物体或物体部位的动作数据时使用表示所选物体或物体部位的物理特性的物理,所以能够容易地把控制数据变换为动作数据。
由于本发明的第四实施例的虚拟空间控制数据接收装置设置有从动作控制数据输出装置输出的场景生成动作和从生成场景所必须的其他计算机图形数据生成场景数据的场景生成装置、从场景生成装置所生成的场景数据进行图象生成的绘画装置以及显示由绘画装置生成的图象的显示装置,所以能够基于以互联网等网络为基础的三维CG或静止图象、活动图象、文本、声音等数据来显示活动的虚拟空间。
(实施例5)
图6是本发明的第五实施例中的虚拟空间控制数据接收装置的构成图。81是流数据接收装置,82是控制对象选择装置82,83是手动控制数据输入装置,84是手动控制数据变换装置,85是动作控制数据输出装置,86是场景数据生成装置,87是绘画装置,88是显示装置。
流数据接收装置81、场景数据生成装置86、绘画装置87、显示装置88分别与本发明的第四实施例的流数据接收装置71、场景数据生成装置75、绘画装置76、显示装置77是一样的。
下面来详细说明以上构成的各处理。
例如,如图12(a)所示,在虚拟空间内有多个成为控制对象的物体A~E的情况下,控制对象选择装置82从其中选择成为控制对象的物体B,同时如图12(b)所示,选择成为控制对象的物体的部位C。预先把识别符赋予成为控制对象的物体或物体的部位,指定该识别符就能实现这样的选择。该识别符作为选择数据被送到手动控制数据变换装置84或动作控制数据输出装置85。作为选择方法,有一面输入识别符一面从例如图12(a)、(b)那样的图象上来选择的方法。但是,在从图象上来选择的情况下,必须有在图象上识别各控制对象所占据的区域的功能、指定该区域的功能、从指定的区域识别控制对象的功能、从识别的控制对象计算出识别符的功能。这样的功能一般可以使用由计算机进行窗口管理的方法来实现。
图14是利用互联网作为游戏机来使用虚拟空间控制数据接收装置的示例。服务器装置(流数据发送装置)经互联网(数据发送接收线)与两个客户装置(虚拟空间控制数据接收装置)连接,并把由5个物体动画数据组成的流数据发送给他们。如果客户装置A,B用操纵杆输入控制数据,就把基于流数据的图象显示在液晶显示器(显示装置)上,如果输入控制数据,则显示基于所输入的控制数据的图象。在利用互联网的对打的游戏中,例如把最初选择的物体作为以后操作的对象,一个人用客户装置A的操纵杆A操作物体A,另一个人用客户装置B的操纵杆B操作物体B。这里,由操纵杆A操作的物体A的动作被显示在液晶显示器A上,同时在液晶显示器B上也显示出来。同样,由操纵杆B操作的物体B的动作也被显示在液晶显示器B上。这样,虚拟空间控制数据接收装置就能够用作游戏机。
手动控制数据输入装置83与本发明的第四实施例的手动控制数据输入装置72是一样的。但是,用各不相同的控制数据(或动作数据)来控制多个控制对象的情况下,操作者根据预先决定的规则输入对应于由控制对象选择装置82选择的控制对象的控制数据(或动作数据)。
手动控制数据变换装置84把手动控制数据输入装置83输入的控制数据变换为对应于控制对象选择装置82选择的控制对象的动作数据。但是,在由手动控制数据输入装置83输入动作数据的情况下,不必进行这种变换。预先准备有一个以从控制对象选择装置82输出的选择数据为变量、以变换方法为表值的表,用该表来确定变换方法,与本发明的第四实施例的手动控制数据变换装置73的说明一样,用所确定的变换方法来进行从控制数据到动作数据的变换。
动作控制数据输出装置85根据控制对象选择装置82输出的选择数据确定手动控制的物体或物体的控制部位,并对于该控制对象输出由手动控制数据变换装置84输出的动作数据作为场景生成动作数据,对此外的对象输出由流数据接收装置81送来的动作流数据作为场景生成动作数据。
这样,由于本发明的第五实施例中的虚拟空间控制数据接收装置设置有输入用来选择手动进行动作控制的物体或物体的部位的选择数据的控制对象选择装置,手动控制数据输入装置对由控制对象选择装置选择的物体或物体的部位输入动作数据,动作控制数据输出装置对控制对象选择装置选择的物体或物体的部位输出由手动控制数据输入装置输出的动作数据作为场景生成动作数据,对此外的物体或物体的部位输出由流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够自由地选择控制的物体或物体的部位,并按照其意图使之动作。
(实施例6)
图7是本发明的第六实施例中的虚拟空间控制数据接收装置的构成图。91是流数据接收装置,92是手动控制数据输入装置,93是手动控制数据发送装置,94是手动控制数据接收装置,95是手动控制数据变换装置,96是动作控制数据输出装置,97是场景数据生成装置,98是绘画装置,99是显示装置。
流数据接收装置91、场景数据生成装置97、绘画装置98、显示装置99分别与本发明的第四实施例的流数据接收装置71、场景数据生成装置75、绘画装置76、显示装置77是一样的。
下面来详细说明以上构成的各处理。
与本发明的第四实施例的手动控制数据输入装置72一样,手动控制数据输入装置92进行控制数据(或动作数据)的输入,并把所输入的控制数据(或动作数据)送到手动控制数据发送装置93和手动控制数据接收装置94。
手动控制数据发送装置93把从手动控制数据输入装置92送来的控制数据(或动作数据)发送到与本发明的第六实施例同样构成的外部虚拟空间控制数据接收装置。相反,手动控制数据接收装置94接收从外部虚拟空间控制数据接收装置发送来的控制数据(或动作数据),然后输出到手动控制数据变换装置95。
以下用图13(a)、(b)来说明控制数据的发送方法。图13(a)表示控制数据分组的形式,根据该分组(数据块)进行发送接收。控制数据分组由标题部分和数据部分构成。标题部分包括:附加在多个虚拟空间控制数据接收装置内的客户识别符、表示自身是控制数据分组的分组识别符、生成该分组的表示从某基准开始的时刻的时间标记、自身发送的信道总数Dc;对于一个信道来说,数据部分由表示信道号码的信道识别符和发送的数据即分组大小的压缩或非压缩数据构成,有信道总数Dc。图13(b)表示这些分组的发送方法,控制数据分组随时以分组为单位进行发送接接。
与本发明的第四实施例一样,手动控制数据变换装置95把从手动控制数据输入装置92或手动控制数据接收装置94送来的控制数据变换为动作数据,并输出到动作控制数据输出装置96。但是,从手动控制数据输入装置92或手动控制数据接收装置94送来动作数据时,可以不进行这种变换。
动作控制数据输出装置96对由手动控制数据输入装置92的控制数据(或动作数据)控制的物体或物体的部位或由手动控制数据接收装置94的控制数据(或动作数据)控制的物体或物体的部位输出由手动控制数据变换装置95变换并输出的相当于该控制对象的动作数据作为场景生成动作数据。对此外的控制对象输出从流数据接收装置91送来的动作流数据作为场景生成动作数据。这种情况下,进行动作控制的物体或物体的部位中,或是固定用手动进行控制的对象,或是可以用识别符进行识别。
这样,由于本发明的第六实施例中的虚拟空间控制数据接收装置设置有把对于由手动控制数据输入装置输入的控制对象的物体或物体的部位的控制数据发送到外部的手动控制数据发送装置和接收从外部发送来的对于控制对象的物体或物体部位的控制数据的手动控制数据接收装置,动作控制数据输出装置对由手动控制数据输入装置输入的控制数据进行控制的物体或物体部位、或对由手动控制数据接收装置接收到的控制数据控制的物体或物体部位输出从手动控制数据变换装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体部位输出从流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,能够再现由其他虚拟空间控制数据接收装置控制的物体的动作。
由于本发明的第六实施例中的虚拟空间控制数据接收装置的动作控制数据输出装置在时间上同步地对由手动控制数据输入装置输入的控制数据进行控制的物体或物体部位和对由手动控制数据接收装置接收到的控制数据进行控制的物体或物体部位输出场景生成动作数据以及对此外的物体或物体部位输出场景生成动作数据,所以,能够配合用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间再现由其他虚拟空间控制数据接收装置控制的物体或物体的部位的动作以及由阅览者控制的物体或物体的部位的动作。
(实施例7)
图8是本发明的第七实施例中的虚拟空间控制数据接收装置的构成图。100是流数据接收装置,101是控制对象选择装置,102是选择数据发送装置,103的选择数据接收装置,104是手动控制数据输入装置,105是手动控制数据发送装置,106是手动控制数据接收装置,107是手动控制数据变换装置,108是动作控制数据输出装置,109是场景数据生成装置,110是绘画装置,111是显示装置。
流数据接收装置100、场景数据生成装置109、绘画装置110、显示装置111分别与本发明的第四实施例的流数据接收装置71、场景数据生成装置75、绘画装置76、显示装置77是一样的。
下面来详细说明以上构成的各处理。
与本发明的第五实施例一样,控制对象选择装置101输入手动进行控制的物体或物体的部位的选择数据。所输入的选择数据被送到选择数据发送装置102、手动控制数据变换装置107、动作控制数据输出装置108。
选择数据发送装置102把由控制对象选择装置101送来的选择数据发送到与本发明的第七实施例同样构成的外部虚拟空间控制数据接收装置。相反,选择数据接收装置103接收从外部虚拟空间控制数据接收装置发送来的选择数据,并输出到手动控制数据变换装置107和动作控制数据输出装置108。
与本发明的第六实施例的手动控制数据输入装置92一样,手动控制数据输入装置104进行控制数据(或动作数据)的输入,并把所输入的控制数据(或动作数据)送到手动控制数据发送装置105和手动控制数据变换装置107。
手动控制数据发送装置105把从手动控制数据输入装置104送来的控制数据(或动作数据)发送到与本发明的第七实施例同样构成的外部虚拟空间控制数据接收装置。相反,手动控制数据接收装置106接收从外部虚拟空间控制数据接收装置发送来的选择数据,并输出到手动控制数据变换装置107。
这里,作为选择数据和控制数据的发送接收方法,在下面用图13来说明。因为控制数据分组的数据形式与前面所描述的一样,所以仅说明选择数据分组的数据形式。选择数据分组由标题部分和数据部分构成,标题部分包括:附加在多个虚拟空间控制数据接收装置内的客户识别符、表示是选择数据分组的分组识别符、用来特定控制对象的控制对象识别符、生成该分组的表示从某基准时间开始的时刻的时间标记、可发送的信道总数Tc(其中Dc≤Tc)、表示发送的控制数据的压缩方法的压缩方法识别符(在压缩方法有多种的情况下,对每个信道都规定)、表示分组大小的分组尺寸;对于一个信道来说,选择数据分组的数据部分由表示信道号码的识别符、该信道的数据大小、表示该信道及数据种类(矢量数据或定标类型数据等)的信道类型、表示该信道数据名称的信道名构成,该部分有信道总数Tc。图13(d)表示这些分组的发送方法,首先发送选择数据分组,接着随时发送控制数据分组。可是,在控制对象进行过变更时,对新的控制对象发送选择数据分组,同样,发送该控制对象的控制数据分组。
与本发明的第四实施例一样,手动控制数据变换装置107把从手动控制数据输入装置104或手动控制数据接收装置106送来的控制数据变换为由控制对象选择装置101或选择数据接收装置103送来的选择数据指定的控制对象的动作数据,并输出到动作控制数据输出装置108。但是,从手动控制数据输入装置104或手动控制数据接收装置106送来动作数据时,可以不进行这种变换。
动作控制数据输出装置108对由控制对象选择装置101送来的选择数据指定的控制对象或由选择数据接收装置103送来的选择数据指定的控制对象输出由相当于该控制对象的手动控制数据变换装置107变换并输出的动作数据作为场景生成动作数据。对此外的控制对象输出由流数据接收装置100送来的动作流数据作为场景生成动作数据。
本发明的第四、第五、第六、第七实施例中的各处理都可以用计算机中的软件来实现。
这样,由于本发明的第七实施例中的虚拟空间控制数据接收装置设置有把由控制对象选择装置输入的选择数据发送到外部的选择数据发送装置和接收从外部发送来的选择数据的选择数据接收装置,动作控制数据输出装置对控制对象选择装置或选择数据接收装置的选择数据所选择的物体或物体的部位输出从手动控制数据变换装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,能够再现由其他虚拟空间控制数据接收装置自由选择控制的物体的动作。
如上所述,按照本发明的第1方面的虚拟空间控制数据接收装置,由于设置有根据用于控制活动虚拟空间的多个流形式的数据的种类来接收流数据的流数据接收装置,输入在虚拟空间中控制的对象的控制数据的手动数据输入装置,以及对由所述手动数据输入装置控制的对象输出用所述手动数据输入装置输入的控制数据并对此外的对象输出由所述流数据接收装置接收到的流数据的控制数据输出装置,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够按照其意图使成为控制对象的物体动作。
按照本发明的第2方面的虚拟空间控制数据接收装置,由于设置有根据用于控制活动虚拟空间的多个流形式的数据的种类来接收流数据的流数据接收装置,输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入装置,以及对由所述手动数据输入装置所选定的对象输出用所述手动数据输入装置输入的控制数据并对此外的对象输出由所述流数据接收装置接收到的流数据的控制数据输出装置,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够自由选择成为控制对象的物体并按照其意图使之动作。
按照本发明的第3方面的虚拟空间控制数据接收装置,由于在第2方面中记载的虚拟空间控制数据接收装置内设置有把由所述手动数据输入装置输入的控制数据变换为对应于由所述手动数据输入装置选定的对象的控制数据的手动控制数据变换装置;所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动控制数据变换装置变换了的控制数据,并对此外的对象输出所述流数据接收装置接收到的流数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够输入同样的控制数据来控制全部成为控制对象的多个物体。
按照本发明的第4方面的虚拟空间控制数据接收装置,由于在第2方面中记载的虚拟空间控制数据接收装置内设置有把由所述手动数据输入装置输入的选择数据和控制数据发送到其他虚拟空间控制数据接收装置的手动数据发送装置,以及接收其他的虚拟空间控制数据接收装置所输入的选择数据和控制数据的手动数据接收装置;所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动数据输入装置输入的控制数据,对用所述手动数据接收装置中的选择数据控制对象输出由所述手动数据接收装置接收的控制数据,并对此外的对象输出所述流数据接收装置接收到的流数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够再现由其他虚拟空间控制数据接收装置控制的物体的动作,而且阅览者能够自由选择成为控制对象的物体并按照其意图使之动作。
按照本发明的第5方面的虚拟空间控制数据接收装置,由于在第3方面中记载的虚拟空间控制数据接收装置内设置有把由所述手动数据输入装置输入的选择数据和控制数据发送到其他虚拟空间控制数据接收装置的手动数据发送装置,以及接收其他的虚拟空间控制数据接收装置所输入的选择数据和控制数据的手动数据接收装置;所述手动控制数据变换装置把从所述手动数据输入装置和所述手动数据接收装置输出的控制数据变换为对应于由选择数据控制的对象的控制数据;所述控制数据输出装置对由所述手动数据输入装置选定的对象或由所述手动数据接收装置中的选择数据控制的对象输出由所述手动控制数据变换装置变换了的控制数据,并对此外的对象输出所述流数据接收装置接收到的流数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够再现由其他虚拟空间控制数据接收装置控制的物体的动作,而且阅览者能够自由选择成为控制对象的物体并按照其意图使之动作。
按照本发明的第6方面的虚拟空间控制数据接收装置,由于在第1至5方面任一方面中记载的虚拟空间控制数据接收装置内设置有生成由所述控制数据输出装置输出的数据构成虚拟空间的场景数据的场景数据生成装置,根据所述场景数据生成装置所生成的场景数据生成图象数据的绘画装置,以及显示由所述绘画装置生成的图象数据的显示装置,所以,能够根据以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本等数据显示活动虚拟空间。
按照本发明的第7方面的虚拟空间控制数据接收装置,由于在第6方面中记载的虚拟空间控制数据接收装置内设置有根据从所述控制数据输出装置输出的数据输出声音的声音输出装置,所以,能够根据以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本等数据显示活动虚拟空间。
按照本发明的第8方面的虚拟空间控制数据接收装置,由于在第1至4方面任一方面中记载的虚拟空间控制数据接收装置内,所述控制数据输出装置在时间上同步地输出对于所述手动数据输入装置输入的数据所控制的对象的控制数据和对于此外的对象的流数据,所以,能够配合以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间,再现阅览者控制的物体或物体部位的动作。
按照本发明的第9方面的虚拟空间控制数据接收装置,由于设置有接收流形式的数据流并分成为动作流数据和此外的流数据进行输出的流数据接收装置,输入对于手动进行动作控制的物体或物体的部位的动作数据的手动控制数据输入装置以及动作控制数据输出装置;所述动作控制数据输出装置对用由所述手动控制数据输入装置输入的动作数据进行控制的物体或物体的部位输出从所述手动控制数据输入装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,能够按照意图使阅览者控制的物体或物体的部位动作。
按照本发明的第10方面的虚拟空间控制数据接收装置,由于在第9方面中记载的虚拟空间控制数据接收装置内设置有输入用来选择手动进行动作控制的物体或物体的部位的选择数据的控制对象选择装置;所述手动控制数据输入装置输入对于由所述控制对象选择装置选定的物体或物体的部位的动作数据;所述动作控制数据输出装置对由所述控制对象选择装置选定的物体或物体的部位输出从所述手动控制数据输入装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够自由选择成为控制对象的物体并按照其意图使之动作。
按照本发明的第11方面的虚拟空间控制数据接收装置,由于在第9方面中记载的虚拟空间控制数据接收装置内设置有向外部发送所述手动控制数据输入装置输入的对于控制对象的物体或物体的部位的动作数据的手动控制数据发送装置,和接收从外部发送来的对于控制对象的物体或物体的部位的动作数据的手动控制数据接收装置;所述动作控制数据输出装置对由所述手动控制数据输入装置控制的物体或物体的部位输出从所述手动控制数据输入装置输出的动作数据作为场景生成动作数据,对用由所述手动控制数据接收装置接收到的动作数据控制的物体或物体的部位输出所述手动控制数据接收装置接收到的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表观的活动虚拟空间中,阅览者能够输入同样的控制数据来控制全部成为控制对象的多个物体来按照其意图动作。
按照本发明的第12方面的虚拟空间控制数据接收装置,其特征在于在第10方面中记载的虚拟空间控制数据接收装置内设置有向外部发送所述手动控制数据输入装置输入的对于控制对象的物体或物体的部位的动作数据的手动控制数据发送装置,接收从外部发送来的对于控制对象的物体或物体的部位的动作数据的手动控制数据接收装置,把由所述控制对象选择装置输入的选择数据发送到外部的选择数据发送装置,以及接收从外部发送来的选择数据的选择数据接收装置;所述动作控制数据输出装置对由所述控制对象选择装置所选定的物体或物体的部位输出从所述手动控制数据输入装置输出的动作数据作为场景生成动作数据,对由所述选择数据接收装置的选择数据选定的物体输出从所述手动控制数据接收装置接收的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够自由选择控制的物体或物体的部位,并完全输入同样的控制数据能按照其意图使之动作。
按照本发明的第13方面的虚拟空间控制数据接收装置,由于设置有接收流形式的数据并分成为动作流数据和此外的流数据进行输出的流数据接收装置,输入对于手动进行动作控制的物体或物体的部位的控制数据的手动控制数据输入装置,把由所述手动控制数据输入装置输入的控制数据变换为适合于进行控制的物体或物体的部位的动作数据的手动控制数据变换装置,以及动作控制数据输出装置,所述动作控制数据输出装置对用由所述手动控制数据输入装置输入的控制数据进行控制的物体或物体的部位输出从所述手动控制数据变换装置输出的动作数据作为场景生成动作数据并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够再现由其他虚拟空间控制数据接收装置控制的物体的动作,而且阅览者能够按照其意图使控制的物体或物体的部位动作。
按照本发明的第14方面的虚拟空间控制数据接收装置,由于在第13方面中记载的虚拟空间控制数据接收装置内设置有输入用来选择手动进行动作控制的物体或物体的部位的选择数据的控制对象选择装置;所述手动控制数据输入装置输入对于由所述控制对象选择装置选定的物体或物体的部位的控制数据;所述动作控制数据输出装置对由所述控制对象选择装置选定的物体或物体的部位输出从所述手动控制数据变换装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够再现由其他虚拟空间控制数据接收装置控制的物体的动作,而且阅览者能够自由选择成为控制对象的物体并按照其意图使之动作。
按照本发明的第15方面的虚拟空间控制数据接收装置,由于在第13方面中记载的虚拟空间控制数据接收装置内设置有向外部发送所述手动控制数据输入装置输入的对于控制对象的物体或物体的部位的控制数据的手动控制数据发送装置,接收从外部发送来的对于控制对象的物体或物体的部位的控制数据的手动控制数据接收装置;所述手动控制数据变换装置把从所述手动控制数据输入装置输入的控制数据或由所述手动控制数据接收装置接收到的控制数据变换为适合于进行控制的物体或物体的部位的动作数据;所述动作控制数据输出装置对用从所述手动控制数据输入装置输入的控制数据进行控制的物体或物体的部位或用由所述手动控制数据接收装置接收到的控制数据控制的物体或物体的部位输出由所述手动控制数据变换装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够再现由其他虚拟空间控制数据接收装置控制的物体的动作,而且阅览者能够按照其意图使控制的物体或物体的部位动作。
按照本发明的第16方面的虚拟空间控制数据接收装置,由于在第14方面中记载的虚拟空间控制数据接收装置内设置有向外部发送所述手动控制数据输入装置输入的对于控制对象的物体或物体的部位的控制数据的手动控制数据发送装置,接收从外部发送来的对于控制对象的物体或物体的部位的控制数据的手动控制数据接装置,把所述控制对象选择装置输入的选择数据发送到外部的选择数据发送装置,以及接收从外部发送来的选择数据的选择数据接收装置;所述手动控制数据变换装置把从所述手动控制数据输入装置输入的控制数据或由所述手动控制数据接收装置接收到的控制数据变换为适合于由所述控制对象选择装置或所述选择数据接收装置的选择数据选定的物体或物体的部位的动作数据;所述动作控制数据输出装置对由所述控制对象选择装置或所述选择数据接收装置的选择数据选定的物体或物体的部位输出从所述手动控制数据变换装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够再现由其他虚拟空间控制数据接收装置控制的物体的动作,而且阅览者能够自由选择成为控制对象的物体并按照其意图使之动作。
按照本发明的第17方面的虚拟空间控制数据接收装置,由于在第9至14方面任一方面中记载的虚拟空间控制数据接收装置内,所述动作控制数据输出装置在时间上同步地输出对于由所述手动数据输入装置输入的数据控制的物体或物体的部位的场景生成动作数据和对于此外的物体或物体的部位的场景生成动作数据,所以,能够配合以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间,再现阅览者控制的物体或物体部位的动作。
按照本发明的第18方面的虚拟空间控制数据接收装置,由于在第11至16方面任一方面中记载的虚拟空间控制数据接收装置内,所述动作控制数据输出装置在时间上同步地输出对于用所述手动控制数据输入装置输入的数据控制的物体或物体的部位、对于由所述手动控制数据接收装置接收的数据控制的物体或物体的部位的场景生成动作数据和对于此外的物体或物体的部位的场景生成动作数据,所以,能够配合以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间,再现由其他虚拟空间控制数据接收装置控制的物体或物体部位的动作和阅览者控制的物体或物体部位的动作。
按照本发明的第19方面的虚拟空间控制数据接收装置,由于在第13至16方面任一项记载的虚拟空间控制数据接收装置内,所述手动控制数据变换装置在把所输入的控制数据变换为物体或物体的部位的动作数据时使用表格化的变换数据,所以,能够容易地把控制数据变换为动作数据。
按照本发明的第20方面的虚拟空间控制数据接收装置,由于在第13至16方面任一项记载的虚拟空间控制数据接收装置内,所述手动控制数据变换装置在把所输入的控制数据变换为物体或物体的部位的动作数据时内插表格化的关键变换数据,所以,能够容易地把控制数据变换为动作数据。
按照本发明的第21方面的虚拟空间控制数据接收装置,由于在第13至16方面任一方面中记载的虚拟空间控制数据接收装置内,所述手动控制数据变换装置在把所输入的控制数据变换为物体或物体的部位的动作数据时使用预先学习的神经元网络,所以,能够容易地把控制数据变换为动作数据。
按照本发明的第22方面的虚拟空间控制数据接收装置,由于在第13至16方面任一方面记载的虚拟空间控制数据接收装置内,所述手动控制数据变换装置在把所输入的控制数据变换为物体或物体的部位的动作数据时使用代表所选定的物体或物体的部位的物理特性的物理计算,所以,能够容易地把控制数据变换为动作数据。
按照本发明的第23方面的虚拟空间控制数据接收装置,由于在第9至16方面任一方面中记载的虚拟空间控制数据接收装置内设置有从生成所述动作控制数据输出装置输出的场景生成动作数据和场景所必须的其他计算机图形数据生成场景数据的场景生成装置,从由所述场景生成装置生成的场景数据进行图象生成的绘画装置,和显示由所述绘画装置生成的图象的显示装置,所以,能够根据以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本等数据显示活动虚拟空间。
按照本发明的第24的虚拟空间控制数据发送接收系统,由根据用于控制活动虚拟空间的多个流形式的数据的种类来发送流数据的虚拟空间控制数据发送装置和多个虚拟空间控制数据接收装置构成,其特征在于所述虚拟空间控制数据接收装置设置有根据从所述虚拟空间控制数据发送装置发送来的流数据的种类接收流形式的数据的流数据接收装置,输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入装置,把所述手动数据输入装置输入的选择数据和控制数据发送到其他虚拟空间控制数据接收装置的手动数据发送装置,接收由其他虚拟空间控制数据接收装置输入的选择数据和控制数据的手动数据接收装置,以及控制数据输出装置,所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动数据输入装置输入的控制数据,对由所述手动数据接收装置中的选择数据所选定的对象输出由所述手动数据接收装置接收到的控制数据,并对此外的对象输出由所述流数据接收装置接收到的流数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够再现由其他虚拟空间控制数据接收装置控制的物体的动作,而且阅览者能够自由选择成为控制对象的物体并按照其意图使之动作。
按照本发明的第25方面的虚拟空间控制数据发送接收系统,包含根据用于控制活动虚拟空间的多个流形式的数据的种类来发送流数据的虚拟空间控制数据发送装置、多个虚拟空间控制数据接收装置和手动控制数据传送装置,其特征在于所述虚拟空间控制数据接收装置设置有根据从所述虚拟空间控制数据发送装置发送来的流数据的种类接收流数据的流数据接收装置,输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入装置,把所述手动数据输入装置输入的选择数据和控制数据传送到所述手动控制数据传送装置的手动数据发送装置,接收由其他虚拟空间控制数据接收装置输入的从所述手动控制数据传送装置发送来的选择数据和控制数据的手动数据接收装置,以及控制数据输出装置,所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动数据输入装置输入的控制数据,对由所述手动数据接收装置中的选择数据选定的对象输出由所述手动数据接收装置接收到的控制数据,并对此外的对象输出由所述流数据接收装置接收到的流数据,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,不仅能够再现由其他虚拟空间控制数据接收装置控制的物体的动作,而且阅览者能够自由选择成为控制对象的物体并按照其意图使之动作。
按照本发明的第26方面的虚拟空间控制数据接收方法,由于具有如下步骤:根据用于控制活动虚拟空间的多个流形式的数据的种类来接收流数据的流数据接收步骤,输入在虚拟空间中控制的对象的控制数据的手动数据输入步骤,以及对由所述手动数据输入步骤控制的对象输出由所述手动数据输入步骤输入的控制数据并对此外的对象输出由所述流数据接收步骤接收到的流数据的控制数据输出步骤,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够使成为控制对象的物体并按照其意图动作。
按照本发明的第27方面的虚拟空间控制数据接收方法,由于具有如下步骤:根据用于控制活动虚拟空间的多个流形式的数据的种类来接收这种流数据的流数据接收步骤,输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入步骤,以及对由所述手动数据输入步骤选定的对象输出用所述手动数据输入步骤输入的控制数据并对此外的对象输出由所述流数据接收步骤接收到的流数据的控制数据输出步骤,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够自由选择成为控制对象的物体并按照其意图使之动作。
按照本发明的第28方面的虚拟空间控制数据接收方法,由于具有如下步骤:接收流数据并分成为动作流数据和此外的流数据进行输出的流数据接收步骤;输入对于手动进行动作控制的物体或物体的部位的动作数据的手动控制数据输入步骤;以及对用由所述手动控制数据输入步骤输入的动作数据进行控制的物体或物体的部位输出在所述手动控制数据输入步骤输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出在所述流数据接收步骤输出的动作流数据作为场景生成动作数据的动作控制数据输出步骤,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够使成为控制对象的物体并按照其意图动作。
按照本发明的第29方面的虚拟空间控制数据接收方法,由于具有如下步骤:接收流数据并分成为动作流数据和此外的流数据进行输出的流数据接收步骤;输入对于手动进行动作控制的物体或物体的部位的控制数据的手动控制数据输入步骤;把在所述手动控制数据输入步骤输入的控制数据变换为适合于进行控制的物体或物体的部位的动作数据的手动控制数据变换步骤;以及对用由所述手动控制数据输入步骤输入的控制数据进行控制的物体或物体的部位输出由所述手动控制数据变换步骤输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出由所述流数据接收步骤输出的动作流数据作为场景生成动作数据的动作控制数据输出步骤,所以,在用以互联网等网络为基础的三维CG或静止图象、活动图象、声音、文本来表现的活动虚拟空间中,阅览者能够使成为控制对象的物体并按照其意图动作。

Claims (29)

1.一种虚拟空间控制数据接收装置,其特征在于设置有
根据用于控制活动虚拟空间的多个流形式的数据的种类来接收流数据的流数据接收装置,
输入在虚拟空间中控制的对象的控制数据的手动数据输入装置,以及
对由所述手动数据输入装置控制的对象输出用所述手动数据输入装置输入的控制数据并对此外的对象输出由所述流数据接收装置接收到的流数据的控制数据输出装置。
2.一种虚拟空间控制数据接收装置,其特征在于设置有
根据用于控制活动虚拟空间的多个流形式的数据的种类来接收流数据的流数据接收装置,
输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入装置,以及
对由所述手动数据输入装置所选定的对象输出用所述手动数据输入装置输入的控制数据并对此外的对象输出由所述流数据接收装置接收到的流数据的控制数据输出装置。
3.根据权利要求2所述的虚拟空间控制数据接收装置,其特征在于设置有
把由所述手动数据输入装置输入的控制数据变换为对应于由所述手动数据输入装置选定的对象的控制数据的手动控制数据变换装置;
所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动控制数据变换装置变换了的控制数据,并对此外的对象输出所述流数据接收装置接收到的流数据。
4.根据权利要求2所述的虚拟空间控制数据接收装置,其特征在于设置有
把由所述手动数据输入装置输入的选择数据和控制数据发送到其他虚拟空间控制数据接收装置的手动数据发送装置,以及
接收其他的虚拟空间控制数据接收装置所输入的选择数据和控制数据的手动数据接收装置;
所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动数据输入装置输入的控制数据,对用所述手动数据接收装置中的选择数据控制对象输出由所述手动数据接收装置接收的控制数据,并对此外的对象输出所述流数据接收装置接收到的流数据。
5.根据权利要求3所述的虚拟空间控制数据接收装置,其特征在于设置有
把由所述手动数据输入装置输入的选择数据和控制数据发送到其他虚拟空间控制数据接收装置的手动数据发送装置,以及
接收其他的虚拟空间控制数据接收装置所输入的选择数据和控制数据的手动数据接收装置;
所述手动控制数据变换装置把从所述手动数据输入装置和所述手动数据接收装置输出的控制数据变换为对应于由选择数据控制的对象的控制数据;
所述控制数据输出装置对由所述手动数据输入装置选定的对象或由所述手动数据接收装置中的选择数据控制的对象输出由所述手动控制数据变换装置变换了的控制数据,并对此外的对象输出所述流数据接收装置接收到的流数据。
6.根据权利要求1至5任一项所述的虚拟空间控制数据接收装置,其特征在于设置有
生成由所述控制数据输出装置输出的数据构成虚拟空间的场景数据的场景数据生成装置,
根据所述场景数据生成装置所生成的场景数据生成图象数据的绘画装置,
以及显示由所述绘画装置生成的图象数据的显示装置。
7.根据权利要求6所述的虚拟空间控制数据接收装置,其特征在于设置有根据从所述控制数据输出装置输出的数据输出声音的声音输出装置。
8.根据权利要求1至4任一项所述的虚拟空间控制数据接收装置,其特征在于所述控制数据输出装置在时间上同步地输出对于所述手动数据输入装置输入的数据所控制的对象的控制数据和对于此外的对象的流数据。
9.一种虚拟空间控制数据接收装置,其特征在于设置有
接收流形式的数据流并分成为动作流数据和此外的流数据进行输出的流数据接收装置,
输入对于手动进行动作控制的物体或物体的部位的动作数据的手动控制数据输入装置以及动作控制数据输出装置;
所述动作控制数据输出装置对用由所述手动控制数据输入装置输入的动作数据进行控制的物体或物体的部位输出从所述手动控制数据输入装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
10.根据权利要求9所述的虚拟空间控制数据接收装置,其特征在于设置有
输入用来选择手动进行动作控制的物体或物体的部位的选择数据的控制对象选择装置;
所述手动控制数据输入装置输入对于由所述控制对象选择装置选定的物体或物体的部位的动作数据;
所述动作控制数据输出装置对由所述控制对象选择装置选定的物体或物体的部位输出从所述手动控制数据输入装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
11.根据权利要求9所述的虚拟空间控制数据接收装置,其特征在于设置有
向外部发送所述手动控制数据输入装置输入的对于控制对象的物体或物体的部位的动作数据的手动控制数据发送装置,和
接收从外部发送来的对于控制对象的物体或物体的部位的动作数据的手动控制数据接收装置;
所述动作控制数据输出装置对由所述手动控制数据输入装置控制的物体或物体的部位输出从所述手动控制数据输入装置输出的动作数据作为场景生成动作数据,对用由所述手动控制数据接收装置接收到的动作数据控制的物体或物体的部位输出所述手动控制数据接收装置接收到的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
12.根据权利要求10所述的虚拟空间控制数据接收装置,其特征在于设置有
向外部发送所述手动控制数据输入装置输入的对于控制对象的物体或物体的部位的动作数据的手动控制数据发送装置,
接收从外部发送来的对于控制对象的物体或物体的部位的动作数据的手动控制数据接收装置,
把由所述控制对象选择装置输入的选择数据发送到外部的选择数据发送装置,以及
接收从外部发送来的选择数据的选择数据接收装置;
所述动作控制数据输出装置对由所述控制对象选择装置所选定的物体或物体的部位输出从所述手动控制数据输入装置输出的动作数据作为场景生成动作数据,对由所述选择数据接收装置的选择数据选定的物体输出从所述手动控制数据接收装置接收的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
13.一种虚拟空间控制数据接收装置,其特征在于设置有
接收流形式的数据并分成为动作流数据和此外的流数据进行输出的流数据接收装置,
输入对于手动进行动作控制的物体或物体的部位的控制数据的手动控制数据输入装置,
把由所述手动控制数据输入装置输入的控制数据变换为适合于进行控制的物体或物体的部位的动作数据的手动控制数据变换装置,以及
动作控制数据输出装置,所述动作控制数据输出装置对用由所述手动控制数据输入装置输入的控制数据进行控制的物体或物体的部位输出从所述手动控制数据变换装置输出的动作数据作为场景生成动作数据并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
14.根据权利要求13所述的虚拟空间控制数据接收装置,其特征在于设置有
输入用来选择手动进行动作控制的物体或物体的部位的选择数据的控制对象选择装置;
所述手动控制数据输入装置输入对于由所述控制对象选择装置选定的物体或物体的部位的控制数据;
所述动作控制数据输出装置对由所述控制对象选择装置选定的物体或物体的部位输出从所述手动控制数据变换装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
15.根据权利要求13所述的虚拟空间控制数据接收装置,其特征在于设置有
向外部发送所述手动控制数据输入装置输入的对于控制对象的物体或物体的部位的控制数据的手动控制数据发送装置,
接收从外部发送来的对于控制对象的物体或物体的部位的控制数据的手动控制数据接收装置;
所述手动控制数据变换装置把从所述手动控制数据输入装置输入的控制数据或由所述手动控制数据接收装置接收到的控制数据变换为适合于进行控制的物体或物体的部位的动作数据;
所述动作控制数据输出装置对用从所述手动控制数据输入装置输入的控制数据进行控制的物体或物体的部位或用由所述手动控制数据接收装置接收到的控制数据控制的物体或物体的部位输出由所述手动控制数据变换装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
16.根据权利要求14所述的虚拟空间控制数据接收装置,其特征在于设置有
向外部发送所述手动控制数据输入装置输入的对于控制对象的物体或物体的部位的控制数据的手动控制数据发送装置,
接收从外部发送来的对于控制对象的物体或物体的部位的控制数据的手动控制数据接收装置,
把所述控制对象选择装置输入的选择数据发送到外部的选择数据发送装置,以及
接收从外部发送来的选择数据的选择数据接收装置;
所述手动控制数据变换装置把从所述手动控制数据输入装置输入的控制数据或由所述手动控制数据接收装置接收到的控制数据变换为适合于由所述控制对象选择装置或所述选择数据接收装置的选择数据选定的物体或物体的部位的动作数据;
所述动作控制数据输出装置对由所述控制对象选择装置或所述选择数据接收装置的选择数据选定的物体或物体的部位输出从所述手动控制数据变换装置输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出从所述流数据接收装置输出的动作流数据作为场景生成动作数据。
17.根据权利要求9至14任一项所述的虚拟空间控制数据接收装置,其特征在于所述动作控制数据输出装置在时间上同步地输出对于由所述手动数据输入装置输入的数据控制的物体或物体的部位的场景生成动作数据和对于此外的物体或物体的部位的场景生成动作数据。
18.根据权利要求11至16任一项所述的虚拟空间控制数据接收装置,其特征在于所述动作控制数据输出装置在时间上同步地输出对于用所述手动控制数据输入装置输入的数据控制的物体或物体的部位、对于由所述手动控制数据接收装置接收的数据控制的物体或物体的部位的场景生成动作数据和对于此外的物体或物体的部位的场景生成动作数据。
19.根据权利要求13至16任一项所述的虚拟空间控制数据接收装置,其特征在于所述手动控制数据变换装置在把所输入的控制数据变换为物体或物体的部位的动作数据时使用表格化的变换数据。
20.根据权利要求13至16任一项所述的虚拟空间控制数据接收装置,其特征在于所述手动控制数据变换装置在把所输入的控制数据变换为物体或物体的部位的动作数据时内插表格化的关键变换数据。
21.根据权利要求13至16任一项所述的虚拟空间控制数据接收装置,其特征在于所述手动控制数据变换装置在把所输入的控制数据变换为物体或物体的部位的动作数据时使用预先学习的神经元网络。
22.根据权利要求13至16任一项所述的虚拟空间控制数据接收装置,其特征在于所述手动控制数据变换装置在把所输入的控制数据变换为物体或物体的部位的动作数据时使用代表所选定的物体或物体的部位的物理特性的物理计算。
23.根据权利要求9至16任一项所述的虚拟空间控制数据接收装置,其特征在于设置有
从生成所述动作控制数据输出装置输出的场景生成动作数据和场景所必须的其他计算机图形数据生成场景数据的场景生成装置,
从由所述场景生成装置生成的场景数据进行图象生成的绘画装置,和
显示由所述绘画装置生成的图象的显示装置。
24.一种虚拟空间控制数据发送接收系统,由根据用于控制活动虚拟空间的多个流形式的数据的种类来发送流数据的虚拟空间控制数据发送装置和多个虚拟空间控制数据接收装置构成,其特征在于所述虚拟空间控制数据接收装置设置有
根据从所述虚拟空间控制数据发送装置发送来的流数据的种类接收流形式的数据的流数据接收装置,
输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入装置,
把所述手动数据输入装置输入的选择数据和控制数据发送到其他虚拟空间控制数据接收装置的手动数据发送装置,
接收由其他虚拟空间控制数据接收装置输入的选择数据和控制数据的手动数据接收装置,以及
控制数据输出装置,所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动数据输入装置输入的控制数据,对由所述手动数据接收装置中的选择数据所选定的对象输出由所述手动数据接收装置接收到的控制数据,并对此外的对象输出由所述流数据接收装置接收到的流数据。
25.一种虚拟空间控制数据发送接收系统,包含根据用于控制活动虚拟空间的多个流形式的数据的种类来发送流数据的虚拟空间控制数据发送装置、多个虚拟空间控制数据接收装置和手动控制数据传送装置,
其特征在于所述虚拟空间控制数据接收装置设置有
根据从所述虚拟空间控制数据发送装置发送来的流数据的种类接收流数据的流数据接收装置,
输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入装置,
把所述手动数据输入装置输入的选择数据和控制数据传送到所述手动控制数据传送装置的手动数据发送装置,
接收由其他虚拟空间控制数据接收装置输入的从所述手动控制数据传送装置发送来的选择数据和控制数据的手动数据接收装置,以及
控制数据输出装置,所述控制数据输出装置对由所述手动数据输入装置选定的对象输出由所述手动数据输入装置输入的控制数据,对由所述手动数据接收装置中的选择数据选定的对象输出由所述手动数据接收装置接收到的控制数据,并对此外的对象输出由所述流数据接收装置接收到的流数据。
26.一种虚拟空间控制数据接收方法,其特征在于具有如下步骤:
根据用于控制活动虚拟空间的多个流形式的数据的种类来接收流数据的流数据接收步骤,
输入在虚拟空间中控制的对象的控制数据的手动数据输入步骤,以及
对由所述手动数据输入步骤控制的对象输出由所述手动数据输入步骤输入的控制数据并对此外的对象输出由所述流数据接收步骤接收到的流数据的控制数据输出步骤。
27.一种虚拟空间控制数据接收方法,其特征在于具有如下步骤:
根据用于控制活动虚拟空间的多个流形式的数据的种类来接收这种流数据的流数据接收步骤,
输入选择虚拟空间中控制的对象的选择数据和所选定的对象的控制数据的手动数据输入步骤,以及
对由所述手动数据输入步骤选定的对象输出用所述手动数据输入步骤输入的控制数据并对此外的对象输出由所述流数据接收步骤接收到的流数据的控制数据输出步骤。
28.一种虚拟空间控制数据接收方法,其特征在于具有如下步骤:
接收流数据并分成为动作流数据和此外的流数据进行输出的流数据接收步骤;
输入对于手动进行动作控制的物体或物体的部位的动作数据的手动控制数据输入步骤;以及
对用由所述手动控制数据输入步骤输入的动作数据进行控制的物体或物体的部位输出在所述手动控制数据输入步骤输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出在所述流数据接收步骤输出的动作流数据作为场景生成动作数据的动作控制数据输出步骤。
29.一种虚拟空间控制数据接收方法,其特征在于具有如下步骤:
接收流数据并分成为动作流数据和此外的流数据进行输出的流数据接收步骤;
输入对于手动进行动作控制的物体或物体的部位的控制数据的手动控制数据输入步骤;
把在所述手动控制数据输入步骤输入的控制数据变换为适合于进行控制的物体或物体的部位的动作数据的手动控制数据变换步骤;以及
对用由所述手动控制数据输入步骤输入的控制数据进行控制的物体或物体的部位输出由所述手动控制数据变换步骤输出的动作数据作为场景生成动作数据,并对此外的物体或物体的部位输出由所述流数据接收步骤输出的动作流数据作为场景生成动作数据的动作控制数据输出步骤。
CNB001086014A 1999-03-16 2000-03-16 虚拟空间控制数据接收装置及方法、发送接收系统 Expired - Fee Related CN1264123C (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP069747/1999 1999-03-16
JP6974799 1999-03-16
JP083310/1999 1999-03-26
JP8331099 1999-03-26

Publications (2)

Publication Number Publication Date
CN1268723A CN1268723A (zh) 2000-10-04
CN1264123C true CN1264123C (zh) 2006-07-12

Family

ID=26410907

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB001086014A Expired - Fee Related CN1264123C (zh) 1999-03-16 2000-03-16 虚拟空间控制数据接收装置及方法、发送接收系统

Country Status (3)

Country Link
US (1) US6961060B1 (zh)
EP (1) EP1037134A2 (zh)
CN (1) CN1264123C (zh)

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030064811A1 (en) * 2001-09-28 2003-04-03 Greg Schlottmann Gaming device with write only mass storage
KR100497497B1 (ko) 2001-12-27 2005-07-01 삼성전자주식회사 엠펙 데이터의 송수신시스템 및 송수신방법
FR2863738B1 (fr) * 2003-12-10 2006-03-17 Giat Ind Sa Methode de modelisation graphique et comportementale, tridimensionnelle, reactive, et interactive d'au moins deux objets
KR100657065B1 (ko) * 2004-01-29 2006-12-13 삼성전자주식회사 휴대단말기의 캐릭터 처리 장치 및 방법
JP4559092B2 (ja) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ 携帯通信端末及びプログラム
US8230358B1 (en) * 2004-06-22 2012-07-24 Apple Inc. Defining motion in a computer system with a graphical user interface
JP4519082B2 (ja) * 2006-02-15 2010-08-04 株式会社ソニー・コンピュータエンタテインメント 情報処理方法、動画サムネイル表示方法、復号化装置、および情報処理装置
US8441487B1 (en) * 2007-07-30 2013-05-14 Nvidia Corporation Bandwidth compression for shader engine store operations
US7886116B1 (en) 2007-07-30 2011-02-08 Nvidia Corporation Bandwidth compression for shader engine store operations
US9968850B2 (en) * 2007-09-17 2018-05-15 Disney Enterprises, Inc. System for providing virtual spaces for access by users
US20090077475A1 (en) * 2007-09-17 2009-03-19 Areae, Inc. System for providing virtual spaces with separate places and/or acoustic areas
US8196050B2 (en) * 2007-09-17 2012-06-05 Mp 1, Inc. System and method for embedding a view of a virtual space in a banner ad and enabling user interaction with the virtual space within the banner ad
US8066571B2 (en) * 2008-06-09 2011-11-29 Metaplace, Inc. System and method for enabling characters to be manifested within a plurality of different virtual spaces
US9403087B2 (en) * 2008-06-09 2016-08-02 Disney Enterprises, Inc. System and method of providing access to virtual spaces that are associated with physical analogues in the real world
US9100249B2 (en) 2008-10-10 2015-08-04 Metaplace, Inc. System and method for providing virtual spaces for access by users via the web
US8363051B2 (en) * 2009-05-07 2013-01-29 International Business Machines Corporation Non-real-time enhanced image snapshot in a virtual world system
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
EP2783509A4 (en) * 2011-11-25 2016-06-22 Thomson Licensing METHOD AND DEVICE FOR GENERATING A BITSTROM FROM A 3D MODEL COMPRESSION BASED ON THE RECOGNITION OF A REPEATED STRUCTURE
US8532675B1 (en) 2012-06-27 2013-09-10 Blackberry Limited Mobile communication device user interface for manipulation of data items in a physical space
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9314924B1 (en) 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
JP6183101B2 (ja) * 2013-09-25 2017-08-23 富士通株式会社 情報処理システム、制御プログラム及び制御方法
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
US9358685B2 (en) * 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9990754B1 (en) 2014-02-04 2018-06-05 Electronic Arts Inc. System for rendering using position based finite element simulation
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
AU2014265139A1 (en) * 2014-11-24 2016-06-09 Canon Kabushiki Kaisha Method, system and apparatus for rendering a document
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US9827496B1 (en) 2015-03-27 2017-11-28 Electronics Arts, Inc. System for example-based motion synthesis
US10022628B1 (en) 2015-03-31 2018-07-17 Electronic Arts Inc. System for feature-based motion adaptation
US9741146B1 (en) * 2015-09-30 2017-08-22 Electronic Arts, Inc. Kinetic energy smoother
US10792566B1 (en) 2015-09-30 2020-10-06 Electronic Arts Inc. System for streaming content within a game application environment
US10471594B2 (en) * 2015-12-01 2019-11-12 Kindred Systems Inc. Systems, devices, and methods for the distribution and collection of multimodal data associated with robots
DE102017000063B4 (de) * 2016-01-14 2019-10-31 Fanuc Corporation Robotereinrichtung mit Lernfunktion
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
US9987752B2 (en) 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
US10282849B2 (en) 2016-06-17 2019-05-07 Brain Corporation Systems and methods for predictive/reconstructive visual object tracker
US10016896B2 (en) 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
US10403018B1 (en) 2016-07-12 2019-09-03 Electronic Arts Inc. Swarm crowd rendering system
US10726611B1 (en) 2016-08-24 2020-07-28 Electronic Arts Inc. Dynamic texture mapping using megatextures
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
US10001780B2 (en) 2016-11-02 2018-06-19 Brain Corporation Systems and methods for dynamic route planning in autonomous navigation
US10723018B2 (en) 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
US10377040B2 (en) 2017-02-02 2019-08-13 Brain Corporation Systems and methods for assisting a robotic apparatus
US10852730B2 (en) 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
US10096133B1 (en) 2017-03-31 2018-10-09 Electronic Arts Inc. Blendshape compression system
US10878540B1 (en) 2017-08-15 2020-12-29 Electronic Arts Inc. Contrast ratio detection and rendering system
US10535174B1 (en) 2017-09-14 2020-01-14 Electronic Arts Inc. Particle-based inverse kinematic rendering system
US10860838B1 (en) 2018-01-16 2020-12-08 Electronic Arts Inc. Universal facial expression translation and character rendering system
US10997884B2 (en) 2018-10-30 2021-05-04 Nvidia Corporation Reducing video image defects by adjusting frame buffer processes
US10902618B2 (en) 2019-06-14 2021-01-26 Electronic Arts Inc. Universal body movement translation and character rendering system
US11972353B2 (en) 2020-01-22 2024-04-30 Electronic Arts Inc. Character controllers using motion variational autoencoders (MVAEs)
US11504625B2 (en) 2020-02-14 2022-11-22 Electronic Arts Inc. Color blindness diagnostic system
US11648480B2 (en) 2020-04-06 2023-05-16 Electronic Arts Inc. Enhanced pose generation based on generative modeling
US11232621B2 (en) 2020-04-06 2022-01-25 Electronic Arts Inc. Enhanced animation generation based on conditional modeling
US11830121B1 (en) 2021-01-26 2023-11-28 Electronic Arts Inc. Neural animation layering for synthesizing martial arts movements
US11887232B2 (en) 2021-06-10 2024-01-30 Electronic Arts Inc. Enhanced system for generation of facial models and animation
US11670030B2 (en) 2021-07-01 2023-06-06 Electronic Arts Inc. Enhanced animation generation based on video with local phase
US11562523B1 (en) 2021-08-02 2023-01-24 Electronic Arts Inc. Enhanced animation generation based on motion matching using local bone phases

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999173A (en) * 1992-04-03 1999-12-07 Adobe Systems Incorporated Method and apparatus for video editing with video clip representations displayed along a time line
US5288993A (en) * 1992-10-05 1994-02-22 Logitech, Inc. Cursor pointing device utilizing a photodetector array with target ball having randomly distributed speckles
US5835693A (en) * 1994-07-22 1998-11-10 Lynch; James D. Interactive system for simulation and display of multi-body systems in three dimensions
US5793356A (en) * 1995-07-31 1998-08-11 Microsoft Corporation System and method for the software emulation of a computer joystick
US6191798B1 (en) * 1997-03-31 2001-02-20 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters
JP2001526859A (ja) * 1997-05-16 2001-12-18 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク ワールドワイドウェブ上の圧縮映像の指示及び編集方法及びアーキテクチュア

Also Published As

Publication number Publication date
EP1037134A2 (en) 2000-09-20
US6961060B1 (en) 2005-11-01
CN1268723A (zh) 2000-10-04

Similar Documents

Publication Publication Date Title
CN1264123C (zh) 虚拟空间控制数据接收装置及方法、发送接收系统
CN1178168C (zh) 通过通信媒介转播数字视频和音频数据的方法
CN100336339C (zh) 通用型协同交流系统中模型批注与操作传输的方法
CN103650002B (zh) 基于文本的视频生成
CN1247029C (zh) 产生含有二进制图像/音频数据的比特流的方法和装置
CN1835574A (zh) 记录/再生设备和方法、及立体图像视觉效果确认设备和方法
CN1221942C (zh) 人物动画
TWI229559B (en) An object oriented video system
CN1271843C (zh) 内容分配系统和分配方法
CN1615629A (zh) 在服务器与客户机终端之间使用缓存管理来发送对象的方法、相应的传输系统、服务器及终端
CN1285059C (zh) 活动图像转换方法和设备、活动图像传输方法和设备、程序
CN1764889A (zh) 用于产生对象的行为的装置和方法
CN101042919A (zh) 调用内容管理指令的方法和系统
CN1260685C (zh) 发送和/或接收流数据的装置及其方法
CN1574870A (zh) 人际通信系统
CN1870744A (zh) 图像合成装置、通信终端、图像通信系统以及聊天服务器
CN1719852A (zh) 信息源选择系统和方法
CN1574965A (zh) 用于子画面生成的全局运动估计
CN1561637A (zh) 用于传输多媒体信息流的系统和方法,例如用于远程教学
CN1949872A (zh) 动静态混合画面的投影方法和投影系统
US20020060691A1 (en) Method for increasing multimedia data accessibility
CN1231834C (zh) 转换元数据色温的设备和方法及提供元数据的设备和方法
CN1470039A (zh) 视频信息产生设备
CN1290330C (zh) 把交互式视频数据流用于增强的视觉呈现的系统和方法
Di Giacomo et al. Adaptation of facial and body animation for MPEG-based architectures

Legal Events

Date Code Title Description
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C06 Publication
PB01 Publication
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20060712

Termination date: 20100316