2023-09-20 08:16:17 发布人:hao333 阅读( 8189)
①“红队”测试一直是AI开发的重要一环,旨在招募各个领域的专家挖掘AI潜在的漏洞和风险点;②对于OpenAI来说,这有助于模拟各个专业领域的“恶人”会如何滥用A...
①“红队”测试一直是AI开发的重要一环,旨在招募各个领域的专家挖掘AI潜在的漏洞和风险点;②对于OpenAI来说,这有助于模拟各个专业领域的“恶人”会如何滥用AI。
财联社9月20日讯北京时间周三凌晨,美国科技初创公司OpenAI发布公告,宣布启动全球招募“红队”网络成员,旨在引入外部力量,提前挖掘出AI系统存在的缺陷和风险。
所谓的“红队”网络,即Red Teaming,概念来自于军事模拟。即找一队人来模拟假想的“敌人”,来测试本方的准备水平。在AI领域中,“红队”的任务就是模拟黑客或者其他的潜在危险人物,试图找到大语言模型的漏洞,从而避免AI在现实社会中协助从事危害社会安全等不法目的。
OpenAI表示,过去几年里一直有不同领域的专家来协助测试未发布的模型,现在则是要组建一支“常规部队”,网罗大量来自不同地域、不同语言、不同专业领域、不同生活经验的人,共同使得AI模型更加安全。与过往仅在重要版本上线前招一批人集中测试不同,OpenAI将会根据需求在整个开发周期中启用数量不定的成员展开测试。
同时这个“红队”网络也将成为OpenAI的全球专家库,同时OpenAI也会提供平台,让“红队”成员之间进行交流。OpenAI也在官网上列出部分他们希望招募的专家方向,但也强调并不局限于这些领域。
Cognitive Science:认知科学
Chemistry:化学
Biology:生物学
Physics:物理学
Computer Science:计算机科学
Steganography:隐写术
Political Science:政治学
Psychology:心理学
Persuasion:说服
Economics:经济学
Anthropology:人类学
Sociology:社会学
HCI :人机交互
Fairness and Bias:公平与偏见
Alignment:目标对齐
Education:教育
Healthcare:医疗保健
Law:法律
Child Safety:儿童安全
Cybersecurity:网络安全
Finance:金融
Mis/disinformation:误/假信息
Political Use:政治应用
Privacy:隐私
Biometrics:生物识别
Languages and Linguistics:语言与语言学
顺便一提,OpenAI也表示会给参与“红队”项目的成员支付酬金。OpenAI也强调,参与“红队”的项目一般会要求签署保密协议,或者在某一段不特定的时间内保持沉默。
OpenAI表示,申请通道将会在今年12月1日前保持开放,公司将滚动审核申请,后续将评估是否需要再进行公开招募。
走上台面的OpenAI“红队”成员
正如OpenAI所述,“红队”的建制已经存在很久,而且有不少成员已经接受过媒体的公开专访了。
在今年4月英国《金融时报》的揭秘文章中,美国罗彻斯特大学的化学工程教授Andrew White介绍称他参加了GPT-4的“红队”测试,他的攻击目标是用ChatGPT来创造一种全新的神经毒素。White表示他用了“插件”功能,向大模型输送化学论文和化学制造商的目录,大模型甚至还给他找到了一个可以生产假想毒素的地方。
White表示,大模型最终可以帮助许多人更快、更准确地做化学试验,但这里也有一个严重的危险,就是会有些人拿AI去做一些危险的尝试。
在得到White的反馈后,OpenAI对系统做出了改动,确保不会回应类似的提问。根据媒体找到的10来个背景迥异的“红队”成员——有律师、教师、风控人员、安全研究人员等,大多数都位于美国和欧洲。他们透露,在GPT-4发布前的几个月里,他们大致花了10-40个小时来测试这个系统,报酬大概是每个小时100美元。
相关阅读
RelatedReading猜你喜欢
Guessyoulike