技术新讯 > 计算推算,计数设备的制造及其应用技术 > 跨分层边缘网络的分析任务的最优无服务器部署的系统和方法与流程  >  正文

跨分层边缘网络的分析任务的最优无服务器部署的系统和方法与流程

  • 国知局
  • 2024-09-14 14:28:54

发明领域本发明涉及跨分层边缘网络的分析任务的无服务器部署。特别地,分层边缘网络可以在工业工厂的边缘,并且分析任务可以对从该工业工厂收集的数据进行操作。背景技术:::1、今天,即使是一个中等规模的工业工厂也由数百甚至数千个智能现场设备组成。边缘计算允许在靠近数据源的边缘设备上收集这些数据,以在将数据从边缘发送到云之前对其进行预置低延迟分析和/或预处理和过滤数据。为了处理多个设备产生的高负载,一个设备不应该只有一个边缘节点,而应该有多个边缘节点。现场设备连接一个(或多个)附近的边缘节点来将数据发送到那里。这种低级别边缘节点的集群由高级别边缘管理,能够从多个低级别边缘节点收集数据并建立到云的连接。2、在边缘网络内完成的分析任务通常同时涉及来自不同设备的数据。为了保持通信效率,以便能够提供快速响应,必须基于来自设备和wrt的数据在最适合每个任务的边缘节点上部署分析任务,以保持低传输开销和延迟。有些任务仅依赖于本地数据,并且可以部署在较低级别边缘上,而其他任务可能需要在多个边缘上可用并且因此需要部署在较高级别边缘上的数据/信息。这个问题甚至可能更加复杂,因为一些任务可能时间更紧迫,或者在其他方面比其他任务更重要,而一些边缘节点可能比其他节点更受资源限制或负载更大。整个拓扑结构甚至可能动态变化,因为设备或边缘节点可能随着时间的推移被添加到工厂或从工厂中删除。3、总而言之,决定智能部署的过程取决于许多因素。因此,如果由人类操作员手动执行,这将太容易出错且耗时。此外,糟糕的部署解决方案会减慢整个系统的速度,并最终降低相应流程的可靠性。技术实现思路1、因此,本发明的目的是促进在给定的一组计算工作负载上编排给定的一组计算工作负载,并且在执行这些工作负载时实现更好的性能。2、这一目的是通过根据独立权利要求的方法实现的。从属权利要求中详细说明了另外的有利实施例。3、本发明提供了一种计算机实现的方法,用于编排在一组给定的计算节点上的一组给定的计算工作负载的执行。特别地,计算工作负载可以以标准化形式打包,标准化形式允许部署在编排实体决定的任何计算节点上,诸如docker或kubernetes容器。但是,计算工作负载也可以例如只包括要在某些数据上执行的可解释代码行。计算节点为工作负载提供各自的执行环境。4、在该方法的过程中,针对每个工作负载确定执行工作负载所需的对于资源的一组需求。这些资源至少包括存储器。5、另一个可能与工业环境中的数据分析任务特别相关的重要资源是数据可用性。向工作负载提供新数据流的速度很可能是工作负载性能的限制因素。即如果数据可用性太低,工作负载可能会用完新数据来处理并且陷入空闲状态。特别地,数据可用性可以包括其上执行工作负载的计算节点本地上的数据可用性,并且可以是,例如以每单位时间要摄取的数据量来指定。但是,取决于可用的网络连接,作为对此备选地或组合地,还可以根据执行工作负载的计算节点需要具有的数据源的网络连接来指定对于数据可用性的需求。例如,可以指定计算节点的网络连接类型或速度、和/或计算节点与数据源之间的最大跳数。6、特别地,数据分析可能需要按需数据来执行实时分析。由于典型的工业工厂包含许多数据源,因此工厂中的边缘网络可以实时接收大量数据。这些数据可以被存储在不同的边缘节点中。例如,如果需要选择在哪里存储数据,可以选择带宽最高和/或与数据源连接延迟最低的边缘节点。一旦数据存储在一个边缘节点上,将其移动到另一个节点的计算成本可能会很高。7、这意味着在可以快速获得数据的地方部署任务是有利的。事实上,“近数据计算”的概念是一个活跃的研究领域。例如,ucla正在做的工作(https://vast.cs.ucla.edu/projects/near-data-computing)努力确保为计算目的而进行的数据移动即使不能完全消除,也会受到限制。然而,这是通过不同类型的存储基础设施实现的:边缘节点将拥有更多传统的存储基础设施。相比之下,本发明从给定的计算节点和存储装置的拓扑开始。8、因此,在一个特别有利的实施例中,执行工作负载所需的资源还包括:网络通信资源和/或要由工作负载处理的输入数据。9、工作负载可以会请求更多的资源。例如,工作负载可以要求部署冗余,这样,如果执行工作负载的一个计算节点发生故障,另一个计算节点可以无缝接管。在另一个示例中,工作负载可以要求将其部署在提供数据备份或任何其他额外功能或特性的节点上。10、此外,每个工作负载的使用频率是确定的。在这里,术语“频率”不像在物理学中那样被狭义地解释,而是广义地作为包括工作负载需要多久被执行一次的概念的任何量。例如,它可以被确定11、工作负载在单位时间内被调用的频率;和/或12、工作负载的一次完成和执行工作负载的下一个请求之间的时间间隔预计为多长。13、对于每个计算节点,工作负载所需资源的可用性是确定的。该可用性可以例如对应于计算节点上的物理可用资源,减去已经分配给其他工作负载的相应资源量。但是,可用性也可以例如取决于请求实体的身份,以便使某些计算节点只能由重要的请求实体访问。此外,可用性不仅可以关于最大资源量来指定,还可以关于最小资源量来指定。通过这种方式,可以避免在许多非常小的工作负载之间共享大型资源,而不是由真正需要此大型资源的大型工作负载使用。例如,在机器学习模型部署在具有8gb vram的gpu的计算节点和具有24gb vram的gpu的计算节点上的环境中,后者的计算节点可能仅用于需要超过8gb vram的工作负载。这避免了较大gpu的24gb vram与只需要2或4gb vram的大量作业混杂。这些作业应该涌向8gb vram的gpu。14、多个候选配置被建立。每个候选配置包括将每个计算工作负载分派给至少一对计算节点和工作类别。不同的工作类别至少在执行之后在存储器和/或在计算节点的至少一个缓存中的计算工作负载的保留程度上存在差异。对于每个候选配置,都要求满足所有工作负载的资源需求。即在部署该配置时,每个工作负载都获得其所需的资源。对于每个候选配置,关于至少一个给定的优化目标来计算至少一个品质因素。具有最佳品质因素的候选配置被确定为最优配置。15、在这里,将工作负载分组为工作类别是可以被用来服务于不同的优化目标的重要的工具,这些工作类别在相应的工作负载在存储器和/或至少一个缓存中的保留程度上存在差异。16、在一个示例中,优化目标可以是以重复方式执行的一组给定计算工作负载的总体执行速度。特别地,工业工厂中的数据分析任务通常意味着提供对工业工厂执行的过程的持续监视,这意味着将一次又一次地执行相同的工作负载。在理想情况下,计算节点组合在一起将拥有如此多的存储器,以至于每个工作负载都可以保留在其对应的计算节点的存储器中。然后,每个工作负载只需要从大容量存储装置加载到存储器一次,然后在下次需要时可以在存储器中再次调用。这有点类似于在快速存储器中完成所有工作并尽可能避免使用慢速大容量存储装置的内存数据库。但是在实际的工业应用中,如此多的存储器是不可用的,因此一些工作负载将不可避免地不得不从存储器中移除。使用目前的方法,在需要以不同频率执行不同工作负载的设置中,可以在有限存储器的约束下实现最快的执行时间。17、在另一个示例中,优化目标可以是:在执行某些作业的速度不低于所需水平的约束下,计算节点所需的硬件总量。18、应该注意的是,将工作负载保留在存储器中所节省的开销要大于仅将工作负载从大容量存储装置再次加载到存储器中所需要的时间。特别地,如果工作负载容器被集装箱化以用于标准化部署,则尚未在存储器中的工作负载的执行需要为该工作负载实例化和初始化新的执行环境。当执行环境从存储器中被驱逐时,此努力将会丢失。因此,相当数量的资源实际上可能会进入执行环境的开启和关闭。19、无论使用何种优化目标,优化问题都是一个混合整数问题,因为在哪个计算节点上部署工作负载的选择总是离散的。也就是说,可以在节点5或节点6上部署工作负载,但不能在节点5.5或节点5.14159上部署工作负载。通过建立有效的候选配置并对其进行测试,避免了连续优化算法可能产生无效配置的问题。20、任意的取舍现在可以在以下之间选择21、智能选择新的候选配置的努力,22、候选配置的搜索空间的覆盖,以及23、从品质因素来看,最终达到最优的质量。24、例如,一个不需要太多努力的非常简单的实现可以通过以系统的方式在搜索空间中光栅化、或者通过从分布中随机抽样这些配置来获得新候选配置。给定优点函数的评估的一定预算,这可能已经产生比人类可以设计的性能更好的最终配置。通过在智能选择新候选配置上投入更多的努力,例如,通过在选择下一个候选配置时考虑优点函数的过去值,可以在给定相同的优点函数的评估预算的情况下获得更好的最优值。25、计算节点拓扑的变化(可以通过任何合适的方式检测到)可以触发基于已变化的拓扑的新候选配置的新优化。也就是说,该方法可以自适应方式工作,如果拓扑结构发生变化,则重新评估部署。例如,一些计算节点可能暂时是不可用的,因为它们(或它们的网络连接)在关闭以进行维护。工厂操作员还可以决定在高峰使用时增加新的计算节点,或者在电力现货价格最高的时候关闭计算节点以节省能源。26、对数据可用性的考虑不必局限于对于资源的一组需求的需求和计算节点上对应的可用性。相反,数据的可用性也可以在计算品质因素时加以考虑。例如,可以以在执行工作负载的计算节点和数据源之间的路径长度(例如,以网络跳数来测量)来测量数据可用性。然后,候选配置的优化可以例如由确定最短路径的最优寻径算法引导。例如,最优寻径算法可以基于拓扑分析器的结果工作,该拓扑分析器从工业工厂提取最新的工厂和网络拓扑信息。27、特别地,如果对于一个工作负载,数据已经在一个计算节点上可用,而另一个工作负载也需要这些数据,这可能会增加在已经拥有数据的计算节点上运行该另一个工作负载的品质因素。因此,数据可用性可以直接说明哪些工作负载组合在哪个计算节点上。28、数据可用性对于分析工作负载非常重要的大型工业工厂的一个示例是中国常熟的一家造纸厂。该厂的dcs自动化系统从中央控制室提供对制浆机、压浆机、轧浆机、绕线机和造纸厂操作的过程控制。分类系统可以识别移动的纸中的细微缺陷,并将其收集到数据库中进行微调。这样的系统由26个控制器、6000个i/o设备(每个控制器230个i/o)和9个操作员站组成。由于分析任务的各种需求,部署在分层边缘的分析解决方案并不总是最佳的。例如,在较高级别边缘上部署只需要本地数据的任务,或者在较低级别边缘上部署需要高资源可用性的任务都不是最佳选择。在几种情况下可能需要进行优化,包括创建新解决方案、更改执行参数、更改拓扑、更改安全需求、更改优先级和本地解决方案失败。29、人类用户(例如,工厂操作员或边缘管理员)在边缘管理门户内指定要部署的(分析)任务,包括其约束,例如所需的数据输入以及另外的与任务相关的元数据。30、高级别边缘接收来自边缘管理门户的信息并提取(即从存储器中恢复或基于现有连接计算)工厂和网络拓扑。为此,高级别边缘向低级别边缘查询连接到它们的现场设备的列表。该列表可以以json模式格式提供,其中边缘节点的集合及其元数据(包括物理和系统规范、操作系统和i/o模块)一起存储为属性。此列表提供了哪种数据由哪个设备递送的信息,以及每个边缘节点的当前状态和运行状况(例如,负载)。基于所有这些信息,较高级别边缘可以运行分析,为可以部署任务的最佳边缘节点生成建议。这涉及到许多考虑因素,包括在考虑拓扑信息和任务元数据以及所有潜在的另外的约束的情况下,找到数据源和潜在目标之间的最短路径。下面给出了这一步的更多信息。然后,操作员根据找到的最佳部署选项触发部署,并且对应的较低级别边缘将被分派以实现部署,即安装和启动任务。如果在稍后的时间点检测到拓扑中的任何变化,例如,添加的或删除的现场设备或边缘节点,则更高级别的边缘将被触发以更新其拓扑信息并(部分地)重新计算解决方案,如果需要的话。31、因此,所提出的系统将待被部署的(多个)当前任务的元数据以及包括连接设备和边缘节点的当前状态的工厂拓扑作为输入。任务元数据可以包括任务所需的源数据的位置和类型,以及附加的特征,例如,用于高频分析的时间关键性,或可能需要冗余部署任务的其他关键性方式。边缘节点的当前状态可以包括其cpu利用率、空闲存储器或其他与运行状况相关的关键性能指标。32、基于这些输入,将自动计算任务的最优部署选项,并产生关键性感知、数据感知和运行状况感知的边缘任务部署。通过监测网络并根据需要重新计算所提出的部署解决方案考虑了拓扑的动态特性,使得系统关于任务的部署变得自适应。33、系统使用包括任务需求、网络拓扑的该模型的信息来执行子任务,该子任务被分为以下三个模块:34、拓扑分析器:35、考虑边缘节点的当前负载和运行状况36、考虑边缘节点之间的跳数和连接37、考虑可能存在获得特定数据的备选方案(多个设备部分地传输相同的数据)38、任务分析器:39、如果可能的话,考虑分解任务,并将其分布在多个边缘节点中,为子任务找到最合适的部署,然后进行聚合40、考虑在多个边缘节点上部署任务以实现冗余,例如如果任务非常关键41、考虑部署任务的特定要求,例如,为了速度效率任务可能最适合部署在位置a上,而为了备份任务可能最适合部署在位置b上42、最优寻径器:43、考虑来自拓扑分析器和任务分析器的结果44、确定到达所有相关设备/数据(图形算法)的具有最少数目的跳/连接的边缘-在那里部署任务45、一旦工厂发生变化(设备故障、额外的边缘安装等),进行(可能是部分地)设置的重新计算。46、在系统和方法的一个扩展中,可以应用分解技术将给定的任务分解为子任务,以使得基于每个子任务的输入和输出的分布式部署能够潜在地改进部署。47、在另一扩展中,低级别边缘节点可能被授权为部署问题提出自己的本地解决方案,例如,在与高级别边缘的通信可能受到限制的情况下。48、在另一扩展中,系统可能认为对于部署不仅存在一个最优解决方案,但是取决于不同的目标,如低延迟、关键性或负载平衡,可能存在多个帕累托最优(pareto-optimal)解决方案之间的权衡。在这种情况下,系统可以向人类用户推荐多种解决方案,并描述它们之间的优缺点;或者可以基于(可配置的)权重决定最佳解决方案。49、所提出的系统和方法的好处是,人类操作员不必为要安装的任务寻找良好部署的具体细节而烦恼。与此同时,分析任务将递送更快的结果,这将导致工厂中更多的生产过程。此外,由于改进了负载平衡,工厂上的边缘网络将变得更加稳定,这使得工厂流程的执行更加可靠。50、在一个特别有利的实施例中,可用的工作类别至少包括:51、热工作类别,用于执行之后要被保留在计算节点的随机访问存储器ram中的工作负载;52、暖工作类别,用于要被从ram移动到计算节点的缓存存储器的工作负载,其中缓存存储器的访问时间比ram的访问时间慢,但是比由计算节点使用的大容量存储的访问时间快;以及53、冷工作类别,用于执行之后既不要被保留在计算节点的ram中、也不要被保留在计算节的缓存存储器中的工作负载。54、该三层系统对应于计算节点上的可用的主要类别访问时间。通常地,缓存存储器和大容量存储装置之间的访问时间上的差异要比ram和缓存存储器之间的差异大得多。55、在另一个特别有利的实施例中,计算节点的资源可用性离散为可用性类别,可用性类别至少包括:56、冷可用性类别,表明大量的资源是可用的;57、暖可用性类别,表明数量适中的资源是可用的;以及58、热可用性类别,表明少量的资源是可用的。59、这种离散化便于寻找最优候选配置,因为它减少了需要通过评估品质因素来测试的可能性的数目。此外,结合将工作负载树层级分派为“热”、“暖”和“冷”,候选配置的建立可以包括根据扩散定律将工作负载分派给计算节点,其中工作类别和可用性类别之间的温差作为用于由计算节点吸引工作负载的驱动力。也就是说,气流从较暖的地方移动到较冷的地方,其强度取决于温差的大小。这种方式的分派特别容易解释和理解,因为类似的扩散定律适用于物理学中粒子的扩散。60、如前所述,资源可用性不需要纯粹由节点上的资源的物理可用性决定。相反,管理决策也可能进入到可用性。例如,某些计算节点可以只对某些请求者可用,或者管理员可以限制在一个节点上运行的工作负载的数目,即使原则上有更多的资源可用。61、在另一个特别有利的实施例中,品质因素至少部分地取决于:62、计算节点实例化工作负载的执行环境需要的启动时间;和/或63、由工作负载所需要的针对输入数据到执行工作负载的计算节点的数据传输时间。64、这主要取决于通过将工作负载保留在存储器中以供以后使用可以节省多少时间。在一个简单的示例中,当在计算实例上自托管稳态扩散(stable diffusion)图像生成模型时,启动该实例后生成第一个图像可能需要几分钟,因为首先需要从大容量存储中加载7gb的模型参数。但是,当在同一实例上再次调用该程序时,具有模型参数的大文件仍然可以从ram中的磁盘缓存中获得。因此,在与程序的第一次调用没有任何不同的情况下,第二个和任何后续的图像将在仅比大约一分钟的纯计算时间多一点的时间之后被递送。65、在另一特别有利的实施例中,基于至少一个候选配置的历史和针对该候选配置计算的品质因素来计算至少一个新候选配置。也就是说,新的候选配置不是从零开始生成的,而是根据过去的经验发展而来的。这提高了方法向最优配置的收敛性。也就是说,给定迭代的预算和品质因素的评估,最终结果将更接近全局最优。如前所述,在达到全局最优之前很久,就已经实现了对以前手动将工作负载分派给计算节点的改进。66、特别地,至少一个新候选结构可以通过进化算法被确定。即根据品质因素,新候选配置可以通过杂交、突变、挑选从先前的候选配置中被生成。这加强了先前候选配置的良好属性将被保留的趋势。67、在一个特别有利的实施例中,根据已确定的最优配置在给定的计算节点上执行给定的工作负载。通过这种方式,实现了品质因素所承诺的优点。为了编排执行,可以使用任何合适的编排框架,诸如kubernetes。68、在另一特别有利的实施例中,在工作负载的执行期间,监测至少一个工作负载的资源需求、和/或在至少一个计算节点上的资源可用性、和/或可用的计算节点的拓扑结构。响应于在资源需求、和/或在资源可用性、和/或在拓扑结构中的变化,满足预定标准,基于已变化的资源需求、已变化的资源可用性、和/或已变化的拓扑结构,建立至少一个新候选配置。例如,当新的计算节点上线时,这种能力将被用于关于品质因素的最大的优势。此外,当计算节点或其网络连接意外下降时,对品质因素的负面影响可以最小化。69、在线监测还可以用于确定添加新计算节点是否会以“假设(what-if)”模拟的方式提高性能。因此,在另一个特别有利的实施例中,至少一个新候选配置包括:在一组给定的计算节点之上的至少一个另外的计算节点。如果结果证明带有另外计算节点的新候选配置是新最优配置,则可以将新计算节点添加到一组给定的计算节点。然后可以根据已确定的新最优配置在该组新计算节点上执行给定的工作负载。70、在另一特别有利的实施例中,至少一个工作负载包括执行已训练的机器学习模型。这些模型属于经常被反复使用的工作负载,以便从在工业工厂中收集的在线监测数据中获得见解。如上所述,复杂的机器学习模型具有非常大的参数集,需要花费时间从大容量存储装置中加载。此外,机器学习模型的执行经常需要安装软件框架,这增加了启动用于机器学习模型的执行环境所需的时间。71、提出的无服务器框架基于一组服务质量参数对机器学习模型进行分类。例如,可以考虑资源消耗、请求率、部署类型(流式、批量或按需部署)、安全策略和网络性能需求。因此,可以使用分类来确定可以用于运行此类模型的最优边缘节点。72、边缘节点也可以由无服务器框架基于任务、资源可用性、基础设施规范、授权、拓扑等进行分类,以决定在特定边缘上应该部署哪些ml模型以及部署多少ml模型。73、本文提出的系统和方法可以在分层边缘集群中的边缘节点上自动分配ml任务。这是通过对ml任务和边缘节点进行分类并将每一类任务分派给一类节点来完成的。机器学习任务的分类是基于它们的质量需求(诸如资源消耗、请求率、部署类型、安全问题和网络性能需求)来完成的。边缘节点的分类是基于它们的可用性、规范、权限、对服务器的响应时间和集群的拓扑来完成的。74、ml模型的部署涉及对已训练的序列化ml模型、以及对输入数据进行预处理的代码进行打包,并且从而将预处理后的数据提供给已训练的模型。这种封装可以是标准化的,使得输入和输出被明确限定,代码从而可以处理输入数据并生成对应的输出。75、一旦ml模型被打包,它通常被部署作为边缘上的容器。这是在不同的边缘节点上完成的,而不考虑边缘上是否有足够的资源。此外,即使在没有请求时,容器也在运行并消耗计算资源。这一切都可能导致在边缘上部署具有更少的资源和不必要的计算资源消耗的容器。76、解决这个问题的一种方法是仔细选择ml模型可以在其上部署的边缘。从而还决定哪些ml模型应该始终作为服务运行,或者只是保存在存储器中用于快速部署假使请求进入,或者只是保存在磁盘上并在传入请求时加载到存储器中。77、因此,合适的边缘节点的选择和ml模型作为服务运行或保存在存储器或磁盘上的决定应该在边缘和ml模型的整个生命周期内自动且连续地完成。78、例如,可以通过以下方式进行:79、1a.以(半)自动化的方式,使用基于分类的机器学习技术,并且当具有标签的足够数据可用时,基于以下参数加标签/标记边缘节点:80、a.正在运行的任务数目81、b.可用的计算资源82、c.到边缘节点的并发请求/响应数目1b.以(半)自动化的方式下,使用基于分类的机器学习技术,并且当具有标签的足够数据可用时,基于以下参数标记机器学习模型:83、a.所需的计算资源(cpu、存储器等)84、b.机器学习模型将被查询的次数(流式、批量、基于事件)85、上述步骤可以在边缘和机器学习模型的启动或调试中完成。但在操作中,基础设施相关的数据可以被记录,并且从而被分析以了解边缘和机器学习模型的使用的动态行为,从而改变机器学习模型的标记和标签。有了这些数据,还可以预测未来几小时/几天中的资源状态,从而可以在不同的边缘上优化机器学习模型的部署。86、一个示例性的总体过程如下:87、1.机器学习模型包在边缘管理门户中存在的机器学习模型注册表中注册。88、2.通过回答以下问题,可以从指示板中提供关于机器学习模型的配置,诸如89、a.机器学习模型所需的计算资源90、b.如果模型需要始终被部署或动态更改91、c.流式/批量/基于事件的推断92、这些问题可以帮助最初对机器学习模型标记/加标签,并且这些标签是由分析引擎基于问题的答案决定的。93、通过回答以下问题,可以对不同的边缘节点进行相同的配置,诸如:94、a.正在边缘节点/设备上运行的任务数目95、b.可用的计算机资源96、3.使用来自步骤2的答案,分析模型可以在机器学习模型注册表中确定机器学习模型的标签,并且也为边缘节点/设备保留标签数据库。这些值分布在分布式边缘节点/设备或分层边缘中的其他分析引擎、模型注册表和无服务器执行器之间97、4.每当发出请求时,无服务器执行器充当负载平衡器,并尝试定位针对机器学习模型和边缘节点的请求,它被部署到并将请求传递给相关模型。分析引擎在该段时间内查看由请求、计算资源使用和边缘节点/设备和机器学习模型上的任务数目组成的数据,并动态调度机器学习模型在不同边缘节点/设备上的部署98、5.指示板可用于查看模型当前部署的位置,以及为个体机器学习模型和边缘节点/设备标记/加标签。99、如上所述,对于工业工厂的在线监测,经常需要重复执行数据分析工作负载。此外,在这种工业设置中,可能会积累大量数据,因此数据可用性在这种环境中是一个很大的问题。因此,在另一个特别有利的实施例中,至少一个工作负载包括将指示工业工厂的操作状态的输入数据从工业工厂的分布式控制系统dcs处理成由工业工厂生产的至少一种产品的质量指标。特别地,在上面提到的造纸厂的示例中,生产期间的小问题可以在它们变成大问题之前被检测到。100、特别地,质量指标可以被反馈给dcs。dcs可以以提高质量指标为目标来引导工业工厂。通过这种方式,任何问题不仅可以被检测到,而且可以积极地被纠正。101、因为它是计算机实现的,所以本方法可以以软件的形式体现。因此,本发明还涉及具有机器可读指令的计算机程序,当机器可读指令由一台或多台计算机和/或计算实例执行时,使得一台或多台计算机和/或计算实例执行上述方法。计算实例的示例包括云中的虚拟机、容器或无服务器执行环境。本发明还涉及具有该计算机程序的机器可读数据载体和/或下载产品。下载产品是一种带有计算机程序的数字产品,例如,可以在网上商店出售,以便立即完成并下载到一台或多台计算机上。本发明还涉及具有计算机程序和/或具有机器可读数据载体和/或下载产品的一个或多个计算实例。当前第1页12当前第1页12

本文地址:https://www.jishuxx.com/zhuanli/20240914/294298.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。