CN116340024A - 仿真模型组件进程间的数据共享方法、计算机设备及介质 - Google Patents
仿真模型组件进程间的数据共享方法、计算机设备及介质 Download PDFInfo
- Publication number
- CN116340024A CN116340024A CN202310283267.5A CN202310283267A CN116340024A CN 116340024 A CN116340024 A CN 116340024A CN 202310283267 A CN202310283267 A CN 202310283267A CN 116340024 A CN116340024 A CN 116340024A
- Authority
- CN
- China
- Prior art keywords
- data
- message
- thread
- distribution
- model component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000004088 simulation Methods 0.000 title claims abstract description 53
- 230000008569 process Effects 0.000 title claims abstract description 52
- 230000015654 memory Effects 0.000 claims abstract description 84
- 230000003993 interaction Effects 0.000 claims abstract description 24
- 230000007246 mechanism Effects 0.000 claims abstract description 20
- 238000004891 communication Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 6
- 238000011161 development Methods 0.000 claims description 3
- 230000007717 exclusion Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 3
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/544—Buffers; Shared memory; Pipes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/546—Message passing systems or structures, e.g. queues
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开一种仿真模型组件进程间的数据共享方法、计算机设备及介质,该方法通过在CISE仿真系统中不同的模型组件应用进程间数据交互情况下,利用Windows系统中的共享内存机制,采用可配置中间件分发的形式,对不同模型组件进程间的通信数据进行处理分发,在同一计算机节点上基于共享内存和数据分发中间件形式进行通信数据的发送和接收,实现了仿真模型组件进程间的数据共享。本发明采用共享内存机制,有效提高了通信效率,降低了仿真平台信息交互负载;采用可配置的创建方式,在多个模型组件数据分发时具有更好的灵活性。
Description
技术领域
本发明涉及计算机仿真技术领域。更具体地,涉及一种仿真模型组件进程间的数据共享方法、计算机设备及介质。
背景技术
在仿真系统建设过程当中,大部分仿真模型之间的信息数据交互可以通过仿真平台制定的信息交互机制实现。特别的在CISE仿真平台下,为模型组件之间交互数据定义了信息流,不同模型组件通过特定的事件消息或者状态类消息进行交互,所有交互消息通过仿真引擎处理后分发给不同的模型组件。但是,当仿真模型组件需要大量频繁的数据交互时,使用消息交互形式会给仿真平台带来很大的资源占用和时间开销,因此提出一种仿真模型组件进程间的数据共享方法、计算机设备及介质,进程间基于共享内存的数据分发机制,可以将高频大量的数据单独通过共享内存进行数据分发,减小仿真平台信息处理量,在多个模型组件共同仿真时,减小仿真平台信息负载。
发明内容
本发明的一个实施例在于提供一种仿真模型组件进程间数据共享方法,以解决现有技术存在的问题中的至少一个。
为达到上述目的,本发明采用下述技术方案:
本发明第一方面提供一种仿真模型组件进程间的数据共享方法,该方法包括,
对仿真模型组件开发时的数据交互量进行预判,判断其数据交互量是否大于第一预设阈值:
若大于第一预设阈值,则通过共享内存机制完成仿真模型组件进程间的数据通信,以实现仿真模型组件进程间的数据共享;若不大于第一预设阈值,则通过CISE引擎进行交互事件处理以实现仿真模型组件进程间的数据共享。可选地,所述共享内存机制通过数据分发方式进行数据通信,所述数据分发方式采用中间件形式实现。
可选地,所述数据分发方式包括主分发线程和子分发线程,其中,
所述主分发线程管理用于维护消息分发模块和消息分发队列,所述消息分发队列包括发送消息队列和接收消息队列;
所述子分发线程用于维护发送共享内存和接收共享内存。
可选地,所述发送共享内存由发送线程进行守护,当获取到发送共享内存中待发送数据后,所述发送线程将所述待发送数据取出并发送至所述发送消息队列;
所述接收共享内存由接收线程守护,当接收消息队列中有待处理的消息时,所述接收线程将所述待处理消息写入所述接收共享内存。
可选地,所述主分发线程用于从所述子分发线程获得需要发送的消息,判断所述需要发送的消息的去向并进行消息分发;
所述子分发线程负责从发送共享内存中获取消息并发送到所述主分发线程,或接收来自所述主分发线程的消息后将消息存入接收共享内存。
可选地,所述判断消息的去向是对所述发送消息队列中数据包中目的模型组件的虚拟名称和虚拟地址信息进行解析,判断是否属于本主分发线程的下属数据:若属于,则将数据发送至所述接收消息队列;若不属于,则将消息定义为异常消息处理。
可选地,所述中间件配置文件用于配置数据分发中间件主分发线程下属子分发线程的数量,以及每个子分发线程对应的节点名称、模型组件虚拟名称和子分发节点虚拟地址。
可选地,所述主分发线程的发送消息队列和接收消息队列分别采用临界区机制进行互斥和保护。
本发明第二方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明第一方面提供的方法。
本发明第三方面提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行程序时实现本发明第一方面提供的方法。
本发明的有益效果如下:
本发明在CISE仿真系统中不同的模型组件之间有大量数据交互时,针对这些数据采用Windows共享内存机制作为不同仿真模型组件进程间通信的方式,设计了两层分发机制,由子分发线程与共享内存直接交互,完成数据的接收和存储,由主分发线程归集所有待分发数据,完成对不同子线程之间数据的分发和传递。同时通过采用XML配置文件形式,规定不同节点的配置信息,能够灵活配置计算机上同一个CISE仿真系统中采用此方式通信的多个不同模型组件进程;采用此设计方式进行单计算机上多个不同应用进程间消息通信可有效提高通信效率,具有更好的实时性,更好的降低仿真平台信息交互负载;采用可配置的创建方式,多个模型组件数据分发时具有更好的灵活性。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的说明。
图1示出本发明实施例提供的一种仿真模型组件进程间数据共享方法的步骤流程图;
图2示出本发明实施例的数据分发中间件结构设计示意图;
图3示出本发明实施例中可配置数据分发方法中数据分发时序示例图;
图4示出本发明实施例的计算机设备的结构示意图。
具体实施方式
为了更清楚地说明本发明,下面结合优选实施例和附图对本发明做进一步的说明。附图中相似的部件以相同的附图标记进行表示。本领域技术人员应当理解,下面所具体描述的内容是说明性的而非限制性的,不应以此限制本发明的保护范围。
实施例1
实施例1提供一种仿真模型组件进程间数据共享方法,该方法使用的Windows版本为Windows 7x64 Professional,对应数据分发中间件采用VS2010软件开发,采用该方法进行通信的模型组件需要提前进行针对共享内存发送和接收数据的功能改造。当CISE仿真系统中不同的模型组件之间有大量、频繁的数据交互时,针对这些数据采用Windows共享内存机制作为不同仿真模型组件进程间通信的方式,本实施例设计了两层分发机制,由子分发线程与共享内存直接交互,完成模型组件待分发数据的接收和存储,由主分发线程完成对不同子线程之间数据的分发和传递。同时通过采用XML配置文件形式,规定不同节点的配置信息,能够灵活配置同一计算机上采用此方式分发数据的多个不同模型组件进程。
该实施例具体方法包括:
对仿真模型组件开发时的数据交互量进行预判,判断其数据交互量是否大于第一预设阈值:
若大于第一预设阈值,则通过共享内存机制完成仿真模型组件进程间的数据通信,以实现仿真模型组件进程间的数据共享;若不大于第一预设阈值,则通过CISE引擎进行交互事件处理以实现仿真模型组件进程间的数据共享。
在此实施例中,在模型组件开发时对数据交互量进行预判,对于超过第一预设阈值的数据判定为大量数据交互,例如每50毫秒传输的数据超过预设阈值64k字节,说明CISE模型组件中存在大量频繁交互数据,则通过共享内存机制完成仿真模型组件进程间的数据通信,实现仿真模型组件进程间的数据共享。
共享内存是计算机软件进程间通信的一种方式,作为不同模型组件应用进程与数据分发中间件之间消息传递的渠道。由于进程可以直接对内存进行存取,创建共享内存时会给它命名,然后采用这个名字可以让别的进程也访问这个地址空间,一个句柄或者是一个虚拟名称都可以访问共享内存对象,共享内存也是最快速的IPC方式,一般共享内存配合互斥锁(信号量)进行内存存储和访问的同步与互斥。
互斥锁用于解决对象拥有权的问题,互斥锁对象使得共享资源在同一时刻不会被多个线程访问。当所有线程都不占用互斥锁时,它是处于可以触发的状态,只要有线程申请便可以占用该互斥锁拥有的资源;一旦线程占用以后就处于不可触发的状态,其它线程无法同时占用,保障了内存存储数据的安全。
数据分发方法采用中间件形式完成,包括中间件本身和与其对应的中间件配置文件,所述中间件配置文件是一个XML文件,启动后初始化时解析对应节点的配置信息,读入系统内存。XML文件规定了数据分发中间件主分发线程下属子分发线程的数量,以及每个子分发线程对应的节点名称、模型组件虚拟名称、子分发节点虚拟地址。数据分发器分为两个层次,一层是处理消息并完成分发操作的主分发线程,另一层是管理共享内存的子分发线程。在分发模块配置文件中一个计算机节点就对应一个主消息分发线程,在主分发线程下属的子分发线程节点数量就对应实际仿真模型组件进程的共享内存的数目,一个子分发节点对应一个子发送线程和一个子接收线程。
主分发线程负责从子分发线程获得需要发送的消息,判断消息的去向并进行消息分发,分配给其它子分发线程维护的共享内存。主分发线程用于管理维护消息分发以及消息分发队列,消息分发队列包括发送消息队列和接收消息队列。在判断消息去向时,主分发线程中的消息判断模块需要对消息的发送目的端进行判断,判断本消息是否属于本主分发线程下属的子线程节点之一,若属于本线程的下属数据,则接收此数据;否则,作为异常消息处理。
判断消息去向是对数据包中目的模型组件的虚拟名称和虚拟地址信息进行解析,判断是否属于本主分发线程的下属数据:若属于,则将数据发送至所述接收消息队列;否则将消息定义为异常消息处理。
当主分发节点的发送消息队列中有消息时,进入消息判断模块,找到该消息对应的接收端虚拟名称后放入主分发节点的接收消息队列中。接收消息队列由主分发线程守护,当接收消息队列中有待处理消息时,经过判断具体的子节点名称和模型组件虚拟名称后分发至具体的子接收线程处理。所有主分发线程的发送和接收消息队列都采用临界区机制进行互斥和保护。
子分发线程由一个发送线程和一个接收线程组成,每一个模型组件进程都对应一组发送共享内存和接收共享内存,对应由子发送线程和子接收线程进行维护,子发送线程负责发送共享内存中的数据,子接收线程负责接收共享内存数据。子分发线程负责从发送共享内存中获取消息并发送到主分发线程,或接收来自主分发线程的消息后将消息存入接收共享内存。
发送共享内存由一个发送线程进行守护,当获取到发送共享内存中待发送数据后,该线程将数据取出并发送至主分发线程的发送消息队列中,由主分发线程进行处理。接收共享内存由一个接收线程守护,接收消息队列中有待处理的消息时通知接收线程,将该消息写入所述接收共享内存。
图2是本发明实施例的数据分发中间件结构设计示意图,图中详细展示了CISE仿真系统中CISE模型组件A和CISE模型组件B除了具备仿真引擎提供的事件和状态消息交互外,还利用共享内存机制完成数据分发(不仅限于两个组件,可以多个组件,此处仅为示例)。CISE模型组件C采用的仿真引擎提供的事件和状态消息交互,在此仅作为示例说明,并不在本发明的范围,示例中仅表示运行方式。CISE模型组件N是代表本数据分发方法可以根据配置节点信息的数量扩展包含的模型组件数量,其工作原理与CISE模型组件A和CISE模型组件B原理相同。本发明使用的共享内存分发机制内部层次和逻辑关系设计,同时也展示了子分发线程与主分发线程间信息传递关系:(1)发送数据分发流程
①CISE模型组件应用进程执行过程中,当CISE模型组件A有数据需要通过本发明的方法传递给CISE模型组件B时,会将待发送数据写入A组件的发送共享内存中。
②子发送线程1负责将消息从共享内存取出,从约定格式转换后,将消息加入主分发线程的发送消息队列。
③发送消息队列由主分发线程守护,队列中有消息时该线程就会将内容取出,进入消息判断模块进行发送目的端判断和分发。
④消息判断模块通过消息的类型与目的组件名称和虚拟地址信息等判断是否是本节点下属模型组件B数据,是则直接将数据放入接收消息队列由接收队列通知子接收线程2处理,否则将消息定义为发送至其它方消息,发送给其它方的机制不在本设计中阐述。
⑤子接收线程2接收进行数据处理,将其写入对应的接收共享内存。至此从模型组件A到模型组件B的一次数据分发过程结束。
(2)消息分发处理流程
①消息判断模块主要完成消息分发判断的功能,首先将消息解析出目的端模型组件名称,或者软件虚拟地址等特异性标识,然后遍历初始化时存储的配置文件节点信息列表,从而比对该消息是否本分发器下属子节点消息,是则进行分发,否则认为该消息出错或属于其他节点。
②消息解析出的标识若包含多个子节点信息,则消息会根据下属的子节点配置信息完成多个节点发送。
(3)可配置分发
①子分发线程的节点数量是可以配置的,其参数保存在配置文件当中,该节点数量取决于使用本共享内存数据分发方法的CISE模型组件数量,本示例中右侧模型组件N代表可以扩展多个模型组件,每个组件都会创建对应的发送、接收子线程。
②在一次仿真中配置文件是固定的,一旦开始运行,数据分发中间件读取配置文件,根据节点信息创建对应的子分发线程节点和主分发线程等,运行过程中配置参数信息保持固定。
本发明共使用的消息队列如下:
①主分线程发送消息队列;
②主分线程接收消息队列;
本发明中共使用的线程如下:
①子发送线程;
②子接收线程;
③主分发线程;
图3是本发明可配置数据分发方法中数据分发时序示例图,图中展示了不同处理线程和任务模块在一次数据分发过程中的主要处理时序以及内容示例:
(1)共享内存区包括发送共享内存和接收共享内存,其作为不同进程与数据分发器之间的数据交换通道,待发送数据首先会存入发送共享内存区;
(2)子发送线程1会查询共享内存中是否有待发送数据,若有数据则对数据进行拷贝后给主发送线程,否则子线程1等待;
(3)主发送线程处于等待状态,当有子线程数据存入后,主线程执行数据发送操作,将数据传入消息判断处理;
(4)消息判断由数据的虚拟名称和数据类型与初始化时配置文件中的节点信息进行比对,是本节点下属分发节点的数据则进行数据分发,将数据放入主接收线程处理;
(5)主接收线程处于等待状态,当收到待处理数据后,将数据放入子接收线程进行处理;
(6)子接收线程处于等待状态,当收到待处理数据后将数据放入接收共享内存区,完成一次消息分发处理。
实施例2
实施例2提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现实施例1所述的方法。
在实际应用中,所述计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
实施例3
如图4所示,实施例3提供一种计算机设备,可理解的是,图4显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图4所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图4中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例1所提供方法。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定,对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。
Claims (10)
1.一种仿真模型组件进程间的数据共享方法,其特征在于,包括
对仿真模型组件开发时的数据交互量进行预判,判断其数据交互量是否大于第一预设阈值:
若大于第一预设阈值,则通过共享内存机制完成仿真模型组件进程间的数据通信,以实现仿真模型组件进程间的数据共享;若不大于第一预设阈值,则通过CISE引擎进行交互事件处理以实现仿真模型组件进程间的数据共享。
2.根据权利要求1所述的数据共享方法,其特征在于,所述共享内存机制通过数据分发方式进行数据通信,所述数据分发方式采用中间件形式实现。
3.根据权利要求2所述的数据共享方法,其特征在于,所述数据分发方式包括主分发线程和子分发线程,其中,
所述主分发线程管理用于维护消息分发模块和消息分发队列,所述消息分发队列包括发送消息队列和接收消息队列;
所述子分发线程用于维护发送共享内存和接收共享内存。
4.根据权利要求3所述的数据共享方法,其特征在于,所述发送共享内存由发送线程进行守护,当获取到发送共享内存中待发送数据后,所述发送线程将所述待发送数据取出并发送至所述发送消息队列;
所述接收共享内存由接收线程守护,当接收消息队列中有待处理的消息时,所述接收线程将所述待处理消息写入所述接收共享内存。
5.根据权利要求3所述的数据共享方法,其特征在于,所述主分发线程用于从所述子分发线程获得需要发送的消息,判断所述需要发送的消息的去向并进行消息分发;
所述子分发线程负责从发送共享内存中获取消息并发送到所述主分发线程,或接收来自所述主分发线程的消息后将消息存入接收共享内存。
6.根据权利要求5所述的数据共享方法,其特征在于,所述判断消息的去向是对所述发送消息队列中数据包中目的模型组件的虚拟名称和虚拟地址信息进行解析,判断是否属于本主分发线程的下属数据:若属于,则将数据发送至所述接收消息队列;若不属于,则将消息定义为异常消息处理。
7.根据权利要求2所述的数据共享方法,其特征在于,所述中间件配置文件用于配置数据分发中间件主分发线程下属子分发线程的数量,以及每个子分发线程对应的节点名称、模型组件虚拟名称和子分发节点虚拟地址。
8.根据权利要求3所述的数据共享方法,其特征在于,所述主分发线程的发送消息队列和接收消息队列分别采用临界区机制进行互斥和保护。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一项所述的方法。
10.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310283267.5A CN116340024A (zh) | 2023-03-21 | 2023-03-21 | 仿真模型组件进程间的数据共享方法、计算机设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310283267.5A CN116340024A (zh) | 2023-03-21 | 2023-03-21 | 仿真模型组件进程间的数据共享方法、计算机设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116340024A true CN116340024A (zh) | 2023-06-27 |
Family
ID=86894356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310283267.5A Pending CN116340024A (zh) | 2023-03-21 | 2023-03-21 | 仿真模型组件进程间的数据共享方法、计算机设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116340024A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116541131A (zh) * | 2023-06-29 | 2023-08-04 | 西安羚控电子科技有限公司 | 一种基于VxWorks实时系统的多模型运行方法及系统 |
CN117408060A (zh) * | 2023-10-13 | 2024-01-16 | 上海同星智能科技有限公司 | 整车模型仿真性能优化方法、存储介质和电子设备 |
-
2023
- 2023-03-21 CN CN202310283267.5A patent/CN116340024A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116541131A (zh) * | 2023-06-29 | 2023-08-04 | 西安羚控电子科技有限公司 | 一种基于VxWorks实时系统的多模型运行方法及系统 |
CN116541131B (zh) * | 2023-06-29 | 2023-09-22 | 西安羚控电子科技有限公司 | 一种基于VxWorks实时系统的多模型运行方法及系统 |
CN117408060A (zh) * | 2023-10-13 | 2024-01-16 | 上海同星智能科技有限公司 | 整车模型仿真性能优化方法、存储介质和电子设备 |
CN117408060B (zh) * | 2023-10-13 | 2024-05-14 | 上海同星智能科技有限公司 | 整车模型仿真性能优化方法、存储介质和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11010681B2 (en) | Distributed computing system, and data transmission method and apparatus in distributed computing system | |
US10031790B1 (en) | System, method and computer program product for sharing information in a distributed framework | |
US8438578B2 (en) | Network on chip with an I/O accelerator | |
US8020168B2 (en) | Dynamic virtual software pipelining on a network on chip | |
JP6433554B2 (ja) | 計算タスクを処理するためのコンピュータクラスタ構成、およびそれを動作させるための方法 | |
CN116340024A (zh) | 仿真模型组件进程间的数据共享方法、计算机设备及介质 | |
US20110289485A1 (en) | Software Trace Collection and Analysis Utilizing Direct Interthread Communication On A Network On Chip | |
CN107526645B (zh) | 一种通信优化方法及系统 | |
US20090125706A1 (en) | Software Pipelining on a Network on Chip | |
US8689228B2 (en) | Identifying data communications algorithms of all other tasks in a single collective operation in a distributed processing system | |
CN111930365B (zh) | 基于Qt的应用程序快速开发框架、开发方法及运行方法 | |
US20120174105A1 (en) | Locality Mapping In A Distributed Processing System | |
CN113660231A (zh) | 一种报文解析方法、装置、设备和存储介质 | |
CN112306946A (zh) | 用于处理器核心的网络的覆盖层 | |
JP5479710B2 (ja) | データを処理するためのプロセッサ‐サーバ・ハイブリッド・システムおよび方法 | |
CN112559153B (zh) | 一种多线程和多进程一体的仿真模型组件调度方法和系统 | |
CN112948136A (zh) | 一种嵌入式操作系统异步日志记录的实现方法 | |
CN115167985A (zh) | 一种虚拟化的算力提供方法及系统 | |
CN114218000A (zh) | 日志管理方法、装置、电子设备及计算机可读存储介质 | |
US20060070042A1 (en) | Automatic clocking in shared-memory co-simulation | |
CN117667827A (zh) | 任务处理方法及异构计算系统 | |
CN118101699A (zh) | 一种车辆对外通讯方法、装置、电子设备及存储介质 | |
CN116662008A (zh) | 一种异构硬件统一纳管调度节点控制器 | |
CN113810502A (zh) | 一种通信数据传输方法、系统、计算机设备及存储介质 | |
CN114531315A (zh) | 总线信息链的信息调度方法及调度装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |