|
人工智能系统的快速发展以及它们正试图将其引入到各个领域的事实同样引起了乐观和担忧。显然正如网络安全行业所熟知的那样人工智能可以在许多领域为人们提供帮助。事实上在卡巴斯基我们使用机器学习已近年因此我们从经验中知道如果没有这些系统就无法防御我们面临的大量网络威胁。此外在此期间我们还发现了与人工智能相关的系列问题从学习错误的数据到针对人工智能系统的恶意攻击以及将人工智能用于不道德的目的。已经有几个国际组织和平台制定了系列人工智能使用的道德原则例如联合国教科文组织的道德原则。
但网络安全行业尚未出台更具体的指导方针。为了将人工智能应用于网络安全而不产生负面后果我们建议业界采用套人工智能使用的道德原则我们刚刚在日本京都举行的联合国互联网治理论坛上提出了第版原则。尽管这些原则应该由整个网络 美国 Whatsapp 数据 安全社区讨论和共享但我们已经尊重它们。哪个是我们将它们总结如下。透明度用户有权知道安全提供商是否使用人工智能系统以及这些系统如何做出决策以及出于什么目的。因此我们致力于开发最大程度可解释的人工智能系统并采取切必要措施确保其产生最佳结果。要熟悉我们的代码和工作流程只需访问我们的任意个卡巴斯基透明中心即可。安全在人工智能系统面临的威胁中我们发现操纵输入数据集以做出不适当的决策。
因此我们认为人工智能开发人员应该优先考虑弹性和安全性。因此我们采取了广泛的实际措施来提供高质量的人工智能系统针对人工智能的安全审计和网络分组在训练中尽量少使用第三方数据集或者实施多种技术进行保护。分层的。只要有可能我们更喜欢基于云的人工智能并采取所有必要的措施而不是本地安装的模型。人工监督尽管我们的机器学习系统可以自主运行但其结果和性能会受到专家组的持续监控。我们的自动化系统的判决会根据需要进行调整并且系统本身也会进行调整和修改以抵御全新的和或高度复杂的网络威胁。
|
|