技术新讯 > 计算推算,计数设备的制造及其应用技术 > 多云VNC环境虚拟机的操作交互优化方法和装置与流程  >  正文

多云VNC环境虚拟机的操作交互优化方法和装置与流程

  • 国知局
  • 2024-07-31 22:43:09

本技术属于人工智能,尤其涉及一种多云vnc环境虚拟机的操作交互优化方法和装置。

背景技术:

1、随着数字化转型的加速,云计算已成为支撑现代企业和技术架构的基石。特别是,多云策略因其提供的灵活性、避免供应商锁定以及成本优化等优势,被越来越多的组织所采纳。在这个背景下,虚拟机(virtual machine,vm)作为云资源的核心载体,其高效的管理和操作变得至关重要。

2、虽然虚拟机提供了强大的灵活性和配置能力,但这也随之带来了操作的复杂性。用户需要具备跨多个平台和系统的操作知识,在不同的平台和服务之间切换,以管理和操作其虚拟机。

3、现有工具往往采用一种通用的方法来提供帮助和建议,用户与这些工具的交互通常限于预定义的命令和界面操作,缺乏灵活的自然语言交互能力,难以针对特定的用户需求提供最优的操作指导,使得操作效率仍然较低。

技术实现思路

1、本技术旨在至少解决现有技术中存在的技术问题之一。为此,本技术提出一种多云vnc环境虚拟机的操作交互优化方法和装置,以提高图像去雾的效果,以使模型具有自然语言交互能力,提高虚拟机的操作效率。

2、第一方面,本技术提供了一种多云vnc环境虚拟机的操作交互优化方法,包括:

3、采用第一数据集对预设的预训练语言模型进行微调,更新所述预训练语言模型的参数,得到第一虚拟机操作模型;所述第一数据集至少包括针对虚拟机的操作指令、输入和预期输出;

4、将用户的请求信息输入至所述第一虚拟机操作模型中,得到所述第一虚拟机操作模型输出的多个操作建议;

5、根据用户从所述多个操作建议的选择结果和基于选择的操作建议的执行结果构建第二数据集;

6、基于所述第二数据集对所述第一虚拟机操作模型进行迭代优化,以便于根据迭代优化后得到的第二虚拟机操作模型生成操作建议。

7、根据本技术的多云vnc环境虚拟机的操作交互优化方法,通过采用第一数据集对预设的预训练语言模型进行微调,更新所述预训练语言模型的参数,得到第一虚拟机操作模型;所述第一数据集至少包括针对虚拟机的操作指令、输入和预期输出;将用户的请求信息输入至所述第一虚拟机操作模型中,得到所述第一虚拟机操作模型输出的多个操作建议;根据用户从所述多个操作建议的选择结果和基于选择的操作建议的执行结果构建第二数据集;基于所述第二数据集对所述第一虚拟机操作模型进行迭代优化,以便于根据迭代优化后得到的第二虚拟机操作模型生成操作建议。本技术实施例通过将预训练语言模型应用于多云vnc环境虚拟机的操作交互,创新地采用用户交互数据,尤其是基于用户的选择和执行结果,作为模型迭代优化的指导,能够动态地对模型进行优化,使得模型具备灵活的自然语言交互能力及根据用户表达的反馈不断迭代的能力,从而提高虚拟机的操作效率。

8、根据本技术的一个实施例,所述采用第一数据集对预设的预训练语言模型进行微调,更新所述预训练语言模型的参数,得到第一虚拟机操作模型,包括:

9、在所述预训练语言模型的模型的权重矩阵中添加低秩矩阵;

10、采用第一数据集对添加低秩矩阵后的预训练语言模型进行微调,以更新所述低秩矩阵;

11、将更新后的低秩矩阵与所述权重矩阵合并,得到第一虚拟机操作模型。

12、在该实施例中,通过在预训练语言模型的权重矩阵中引入低秩矩阵,对模型进行微调的过程中仅更新低秩矩阵而非整个模型,不仅减少了需要训练的参数数量,从而降低了计算资源和时间成本,而且有效保留了模型在大规模数据集上学习到的丰富语言知识。这样的微调方法使得模型能够快速适应新的虚拟机操作任务,同时保持了对原始预训练知识的利用,增强了模型对新任务的泛化能力。

13、根据本技术的一个实施例,所述将用户的请求信息输入至所述第一虚拟机操作模型中,得到所述第一虚拟机操作模型输出的多个操作建议,包括:

14、获取用户标识和用户请求操作的虚拟机信息;

15、将所述用户标识、所述虚拟机信息和所述请求信息输入至所述第一虚拟机操作模型中,以便于所述第一虚拟机操作模型根据所述用户标识和所述虚拟机信息输出所述请求信息对应的多个操作建议。

16、在该实施例中,可以获取用户及其虚拟机的相关信息,并将这些信息提供给大模型,使得模型在不入侵虚拟机的情况下获取关于用户和虚拟机的相关信息,从而使得模型对虚拟机的相关信息及用户提问的综合理解,生成上下文相关的操作提示,并能够动态调整生成的提示内容,确保其与虚拟机的信息和用户的具体操作场景高度相关联,进一步的,还可以输出多个操作建议,这样不仅为用户提供了多种选择,也使得用户可以根据实际情况选择最合适的操作方案,提高了操作指导的准确性和相关性。

17、根据本技术的一个实施例,所述根据用户从所述多个操作建议的选择结果和基于选择的操作建议的执行结果构建第二数据集,包括:

18、对所述请求消息、所述请求消息对应的多个操作建议、用户从所述多个操作建议的选择结果和基于选择的操作建议的执行结果进行预处理,得到一组预设格式的数据;

19、获取多组预设格式的数据以构建第二数据集。

20、在该实施例中,通过对用户的请求消息及其对应的多个操作建议等交互数据进行预处理,转换成一组预设格式的数据,为模型提供了丰富的、结构化的优化资料。并且通过收集多组这样的预设格式数据,构建起第二数据集,这个数据集不仅包含了用户的个性化选择,还包含了实际操作的反馈,从而使得模型能够学习到用户偏好和操作效果之间的关联性。这样的数据集可以用于进一步训练和改进第一虚拟机操作模型,使其在未来能够更准确地预测用户的偏好,提供更符合用户需求的操作建议,从而提高整个模型的智能化水平和用户满意度。

21、根据本技术的一个实施例,所述基于所述第二数据集对所述虚拟机操作模型进行迭代优化,以便于根据迭代优化后得到的第二虚拟机操作模型生成操作建议,包括:

22、为所述第二数据集中的每组数据构建标签;其中,用户选择的操作建议如果执行成功则为正标签,用户未选择的操作建议和执行失败的操作建议为负标签;

23、设计奖励函数,其中,所述奖励函数为正标签提供正奖励,为负标签提供负奖励;

24、以最大化所述奖励函数提供的奖励为目标,基于所述第二数据集对所述第一虚拟机操作模型进行迭代优化,得到第二虚拟机操作模型。

25、在该实施例中,通过对第二数据集中的每组数据进行标签构建,明确区分用户选择且执行成功的操作建议为正标签,而用户未选择或执行失败的为负标签,为模型提供了明确的优化方向,并且奖励函数能够对正标签给予正奖励,对负标签给予负奖励,以此激励模型学习并倾向于生成正标签所代表的操作建议,以最大化奖励函数为目标,利用第二数据集对模型进行迭代优化,通过不断的学习和调整,使得优化后的模型能够更精准地理解用户的偏好,生成更符合用户期望的操作建议。整个过程通过正负反馈的激励机制,引导模型自我改进,最终实现更高效、更智能的虚拟机操作管理,提升了用户体验。

26、根据本技术的一个实施例,所述方法还包括:

27、构建第三数据集;所述第三数据集中的每组数据包括用户对多个操作建议的选择概率、各个操作建议的执行结果以及根据所述奖励函数计算得到的各个操作建议对应的奖励;

28、根据所述奖励函数构建目标函数;

29、以最大化所述目标函数为目标,基于所述第三数据集对所述第二虚拟机操作模型进行强化学习训练,采用梯度上升法更新所述第二虚拟机操作模型的参数,得到第三虚拟机操作模型,以便于根据所述第三虚拟机操作模型生成操作建议。

30、在该实施例中,通过构建包含了根据奖励函数计算出的每个操作建议对应的奖励的第三数据集,为模型提供了更全面的决策环境信息,并构建的目标函数综合考虑了用户的选择概率和操作建议的执行效果,以及奖励函数的反馈,为模型提供了明确的优化目标,对第二虚拟机操作模型进行强化学习训练,通过梯度上升法等算法更新模型参数,实现模型的自我改进和优化,使得得到的第三虚拟机操作模型能够更加精准地预测用户的偏好,生成更优的操作建议。这种基于用户实际选择和执行反馈的持续学习和优化机制,结合了奖励函数,为强化学习提供了一种新的、基于用户偏好的优化方向,使得模型在做出决策时,不仅考虑到了任务的成功率,还考虑到了用户的偏好,促进了模型生成用户满意度更高的响应。

31、根据本技术的一个实施例,根据公式:

32、

33、构建目标函数;

34、其中,j(θ)为目标函数,是期望奖励的数学表示,θ表示所述第二虚拟机操作模型的参数集合,x表示状态,y表示动作,r(x,y;φ)为奖励函数,表示在参数φ下对于状态x和动作y的奖励预测,dπθ表示在策略下πθ的状态和动作分布。

35、根据公式:

36、

37、

38、更新所述第二虚拟机操作模型的参数;

39、其中,α表示学习率,表示目标函数的梯度,rt(θ)表示新旧策略之间的概率比率,为优势函数,表示选择动作相对于平均策略动作的额外价值,clip函数将概率比率rt(θ)限制在[1-ε,1+ε]的范围内,ε为常数。

40、根据本技术的一个实施例,所述方法还包括:

41、在根据所述第三虚拟机操作模型生成操作建议的过程中,收集用户与所述第三虚拟机操作模型的交互数据;所述交互数据至少包括用户的请求信息、所述第三虚拟机操作模型输出的操作建议、用户选择的操作建议和用户选择的操作建议对应的执行结果;

42、在满足预设条件的情况下,基于所述交互数据对所述第三虚拟机操作模型进行迭代更新。

43、在该实施例中,通过在利用第三虚拟机操作模型生成操作建议的同时,主动收集用户与模型的交互数据。这些丰富的数据为模型提供了实时反馈,使得模型能够捕捉到用户偏好的最新变化和操作模式。当收集到足够的交互数据,并且满足预设条件时,系统将基于这些数据对第三虚拟机操作模型进行迭代更新,以更好地反映用户的实际行为和偏好。通过这种动态学习和更新机制,第三虚拟机操作模型能够适应用户不断变化的需求,同时提高了操作建议的精确度和个性化程度,从而在提升用户体验的同时,也确保了模型的长期稳定运行和安全合规。

44、第二方面,本技术提供了一种多云vnc环境虚拟机的操作交互优化装置,包括:

45、微调模块,用于采用第一数据集对预设的预训练语言模型进行微调,更新所述预训练语言模型的参数,得到第一虚拟机操作模型;所述第一数据集至少包括针对虚拟机的操作指令、输入和预期输出;

46、输入模块,用于将用户的请求信息输入至所述第一虚拟机操作模型中,得到所述第一虚拟机操作模型输出的多个操作建议;

47、构建模块,用于根据用户从所述多个操作建议的选择结果和基于选择的操作建议的执行结果构建第二数据集;

48、优化模块,用于基于所述第二数据集对所述第一虚拟机操作模型进行迭代优化,以便于根据迭代优化后得到的第二虚拟机操作模型生成操作建议。

49、根据本技术的多云vnc环境虚拟机的操作交互优化装置,通过采用第一数据集对预设的预训练语言模型进行微调,更新所述预训练语言模型的参数,得到第一虚拟机操作模型;所述第一数据集至少包括针对虚拟机的操作指令、输入和预期输出;将用户的请求信息输入至所述第一虚拟机操作模型中,得到所述第一虚拟机操作模型输出的多个操作建议;根据用户从所述多个操作建议的选择结果和基于选择的操作建议的执行结果构建第二数据集;基于所述第二数据集对所述第一虚拟机操作模型进行迭代优化,以便于根据迭代优化后得到的第二虚拟机操作模型生成操作建议。本技术实施例通过将预训练语言模型应用于多云vnc环境虚拟机的操作交互,创新地采用用户交互数据,尤其是基于用户的选择和执行结果,作为模型迭代优化的指导,能够动态地对模型进行优化,使得模型具备灵活的自然语言交互能力及根据用户表达的反馈不断迭代的能力,从而提高虚拟机的操作效率。

50、第三方面,本技术提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的多云vnc环境虚拟机的操作交互优化方法。

51、第四方面,本技术提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的多云vnc环境虚拟机的操作交互优化方法。

52、第五方面,本技术提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如上述第一方面所述的多云vnc环境虚拟机的操作交互优化方法。

53、第六方面,本技术提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的多云vnc环境虚拟机的操作交互优化方法。

54、本技术实施例中的上述一个或多个技术方案,至少具有如下技术效果之一:

55、根据本技术的多云vnc环境虚拟机的操作交互优化方法,通过采用第一数据集对预设的预训练语言模型进行微调,更新所述预训练语言模型的参数,得到第一虚拟机操作模型;所述第一数据集至少包括针对虚拟机的操作指令、输入和预期输出;将用户的请求信息输入至所述第一虚拟机操作模型中,得到所述第一虚拟机操作模型输出的多个操作建议;根据用户从所述多个操作建议的选择结果和基于选择的操作建议的执行结果构建第二数据集;基于所述第二数据集对所述第一虚拟机操作模型进行迭代优化,以便于根据迭代优化后得到的第二虚拟机操作模型生成操作建议。本技术实施例通过将预训练语言模型应用于多云vnc环境虚拟机的操作交互,创新地采用用户交互数据,尤其是基于用户的选择和执行结果,作为模型迭代优化的指导,能够动态地对模型进行优化,使得模型具备灵活的自然语言交互能力及根据用户表达的反馈不断迭代的能力,从而提高虚拟机的操作效率。

56、进一步的,在一些实施例中,通过在预训练语言模型的权重矩阵中引入低秩矩阵,对模型进行微调的过程中仅更新低秩矩阵而非整个模型,不仅减少了需要训练的参数数量,从而降低了计算资源和时间成本,而且有效保留了模型在大规模数据集上学习到的丰富语言知识。这样的微调方法使得模型能够快速适应新的虚拟机操作任务,同时保持了对原始预训练知识的利用,增强了模型对新任务的泛化能力。

57、更进一步的,在一些实施例中,可以获取用户及其虚拟机的相关信息,并将这些信息提供给大模型,使得模型在不入侵虚拟机的情况下获取关于用户和虚拟机的相关信息,从而使得模型对虚拟机的相关信息及用户提问的综合理解,生成上下文相关的操作提示,并能够动态调整生成的提示内容,确保其与虚拟机的信息和用户的具体操作场景高度相关联,进一步的,还可以输出多个操作建议,这样不仅为用户提供了多种选择,也使得用户可以根据实际情况选择最合适的操作方案,提高了操作指导的准确性和相关性。

58、更进一步的,在一些实施例中,通过对用户的请求消息及其对应的多个操作建议等交互数据进行预处理,转换成一组预设格式的数据,为模型提供了丰富的、结构化的优化资料。并且通过收集多组这样的预设格式数据,构建起第二数据集,这个数据集不仅包含了用户的个性化选择,还包含了实际操作的反馈,从而使得模型能够学习到用户偏好和操作效果之间的关联性。这样的数据集可以用于进一步训练和改进第一虚拟机操作模型,使其在未来能够更准确地预测用户的偏好,提供更符合用户需求的操作建议,从而提高整个模型的智能化水平和用户满意度。

59、更进一步的,在一些实施例中,通过对第二数据集中的每组数据进行标签构建,明确区分用户选择且执行成功的操作建议为正标签,而用户未选择或执行失败的为负标签,为模型提供了明确的优化方向,并且奖励函数能够对正标签给予正奖励,对负标签给予负奖励,以此激励模型学习并倾向于生成正标签所代表的操作建议,以最大化奖励函数为目标,利用第二数据集对模型进行迭代优化,通过不断的学习和调整,使得优化后的模型能够更精准地理解用户的偏好,生成更符合用户期望的操作建议。整个过程通过正负反馈的激励机制,引导模型自我改进,最终实现更高效、更智能的虚拟机操作管理,提升了用户体验。

60、再进一步的,在一些实施例中,通过构建包含了根据奖励函数计算出的每个操作建议对应的奖励的第三数据集,为模型提供了更全面的决策环境信息,并构建的目标函数综合考虑了用户的选择概率和操作建议的执行效果,以及奖励函数的反馈,为模型提供了明确的优化目标,对第二虚拟机操作模型进行强化学习训练,通过梯度上升法等算法更新模型参数,实现模型的自我改进和优化,使得得到的第三虚拟机操作模型能够更加精准地预测用户的偏好,生成更优的操作建议。这种基于用户实际选择和执行反馈的持续学习和优化机制,结合了奖励函数,为强化学习提供了一种新的、基于用户偏好的优化方向,使得模型在做出决策时,不仅考虑到了任务的成功率,还考虑到了用户的偏好,促进了模型生成用户满意度更高的响应。

61、再进一步的,在一些实施例中,通过在利用第三虚拟机操作模型生成操作建议的同时,主动收集用户与模型的交互数据。这些丰富的数据为模型提供了实时反馈,使得模型能够捕捉到用户偏好的最新变化和操作模式。当收集到足够的交互数据,并且满足预设条件(如数据量、多样性或时间间隔等)时,系统将基于这些数据对第三虚拟机操作模型进行迭代更新,以更好地反映用户的实际行为和偏好。通过这种动态学习和更新机制,第三虚拟机操作模型能够适应用户不断变化的需求,同时提高了操作建议的精确度和个性化程度,从而在提升用户体验的同时,也确保了模型的长期稳定运行和安全合规。

62、本技术的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本技术的实践了解到。

本文地址:https://www.jishuxx.com/zhuanli/20240730/194265.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。