|
Post by account_disabled on Dec 27, 2023 6:03:00 GMT
必须修正模型才能认为其预测答案是正确的。由于攻击,该模型使用了不正确的参数进行训练,因此需要进行适当的准备。由于训练不完整,模型的预测答案可能需要更加准确。中毒攻击有两种方式:数据操纵:对机器学习系统的一种攻击是破坏其可用性。这些攻击用有害数据淹没您的系统,使您的模型学到的边界变得毫无用处。人们对贝叶斯网络、支持向量机以及最近的神经网络进行了研究。数据注入相当于数据操作,但是,正如其名称所示,它仅限于加法。想象一下,如果攻击者可以将新数据添加到训练池中,并且仍然构成重大威胁。一个例子就是一种通过向蠕虫流量添加变体来生成大量签名来创建蠕虫签名的工具。机器学习系统永远不会停止学习并不断改进。
进步是通过从环境中获取持续的反馈来实现的。这类似于强化模型,它从关键元素获取持续的反馈。一个健全的机器学习系统需要标准的反馈和自我完善作为基本品质。提供伪造数据作为反馈的攻击者可以操纵健全的机器学习系统,导致系统向错误的方向发出指令。随着时 电子邮件营销列表 间的推移,系统的性能不但没有改善,反而变得更糟,从而改变其行为并使其变得毫无用处。后门攻击:为了使系统准确运行,您的分类器需要非常先进。然而,现有的安全措施有一个例外,那就是后门的存在。一般设计人员可能不熟悉这种输入类型,纵机器学习系统的优势。考虑这样一种场景:攻击者指示恶意软件分类器将包含特定字符串的任何文件分类为良性。 者可以创建在文件中包含该系列的恶意软件来绕过检测。如果攻击成功,可能会产生严重后果。机器学习模型的威胁:对抗性示例/逃避攻击:机器学习系统面临的一项关键安全威胁是对抗性示例或逃避攻击,对此进行了广泛的研究。这种攻击涉及操纵输入或测试数据,使机器学习系统预测不正确的信息。这会损害系统的完整性,并且影响系统的可信度。人们注意到,数据过度拟合的系统容易受到规避攻击。一个重要原因是过拟合模型具有容易被打破的特定预测规则,而不是一般规则。因此,它更有可能做出错误的预测并容易受到攻击。
|
|