
以测试这个工具在回答问题时的详细程度。OpenAI想要探索模型毒性、偏见和歧视等问题。因此,“红军”就谎言、语言操纵和危险的科学常识进行了
叶紫网 2023-04-17 10:02:13
北京时间 4 月 17 日早间消息,据报道,在安德鲁・怀特(Andrew White)获得 GPT-4 使用权后,他利用这个人工智能系统提出了一种新的神经毒剂。GPT-4 是热门的聊天机器人 ChatGPT 背后的人工智能技术。
(相关资料图)
作为罗切斯特大学的化学工程教授,怀特是 OpenAI 去年聘请的 50 名专家学者之一。在 6 个月的时间里,这支“红军”对这一新模型进行了“定性探索和对抗性测试”,试图攻击它。
怀特表示,他使用 GPT-4 的建议生成了一种可作为化学武器的化合物,并使用“插件”为这个模型提供新的信息源,例如学术论文和化学品制造商名录。随后,这个聊天机器人找到了一个地方来制造这种化合物。
他说:“我认为,这将使每个人都获得更快速、更准确地工具去从事化工行业。但这也使得人们会以更危险的方式去开展化学活动,带来了很大的风险。”
上个月,OpenAI 面向更广泛的公众发布了这项新技术,而这些令人惊讶的发现确保新技术不会带来不良后果。
事实上,“红军”的演习目的是探索并了解在社会上部署先进人工智能系统会造成什么样的风险,解决公众这方面的担忧。他们在工作中提出探索性的或是危险的问题,以测试这个工具在回答问题时的详细程度。
OpenAI 想要探索模型毒性、偏见和歧视等问题。因此,“红军”就谎言、语言操纵和危险的科学常识进行了测试。他们还评估了模型协助和教唆剽窃的情况、金融犯罪和信息安全攻击等违法活动的可能性,以及模型可能会如何威胁国家安全和战场通信。
“红军”由一系列专业人士组成,包括学者、教师、律师、风险分析师和信息安全研究员,主要来自美国和欧洲。他们的发现被反馈给 OpenAI。在更广泛地推出 GPT-4 之前,“红军”提供的意见被用于模型的重新训练,解决 GPT-4 的问题。在几个月的时间里,专家们每人花了 10 到 40 个小时去测试这个模型。多名受访者表示,他们的工作时薪约为 100 美元。
其中的许多人都对语言模型的快速发展提出了担忧,尤其是通过插件将语言模型与外部知识源连接在一起可能造成的风险。
GPT-4“红军”的成员、瓦伦西亚人工智能研究所教授何塞・埃尔南德斯-奥拉洛(José Hernández-Orallo)表示:“今天,系统被冻结了。这意味着它不再学习,也不再有记忆。但如果我们让系统继续有机会访问互联网,那么会怎样?这可能会成为一个与世界相连的非常强大的系统。”
OpenAI 表示,该公司认真对待安全性问题,并在发布前对插件进行了测试,并将随着用户越来越多继续定期更新 GPT-4。
技术研究员罗亚・帕克扎德(Roya Pakzad)使用英语和波斯语的输入信息对该模型进行了性别、种族偏见等测试,例如对于佩戴头巾问题。
帕克扎德承认,这个工具对非英语母语人士能带来帮助,但也显示出对边缘人群的公开刻板印象,即使随后更新的版本也是如此。她还发现,在用波斯语测试该模型时,聊天机器人用捏造的信息做出回复,即出现所谓“幻觉”的情况更糟糕。与英语相比,在波斯语回复中捏造名字、数字和事件的比例更高。
她表示:“我担心,语言多样性和语言背后的文化会受到损害。”
来自内罗毕的律师、唯一一名非洲测试人员博鲁・戈洛(Boru Gollo)也注意到了模型的歧视性语气。他说:“有一次,我在测试这个模型时,它表现得像个白人在跟我说话。在问到某个特定群体时,它会给一个有偏见的意见,或是在回答中出现歧视。”OpenAI 承认,GPT-4 仍有可能表现出偏见。
“红军”的成员还从国家安全的角度对模型进行了评估,但他们对于新模型的安全性有着不同的看法。美国外交关系委员会研究员劳伦・卡恩(Lauren Kahn)表示,当她开始研究,如何将这项技术用于对军事系统的攻击时,她“没有想到模型的回答会如此详细,以至于我只需要做一些微调即可”。
不过,卡恩和其他信息安全测试者发现,随着测试时间推移,模型回答的内容逐渐变得安全。OpenAI 表示,在推出 GPT-4 之前,曾训练过这个模型拒绝回答恶意的信息安全问题。
“红军”的许多成员表示,OpenAI 在发布 GPT-4 之前已经进行了严格的安全评估。卡内基梅隆大学语言模型毒性专家马尔滕・萨普(Maarten Sap)说:“他们在消除这些系统中的显性毒性方面做得非常好。”萨普研究了该模型对不同性别的描述,发现模型的偏见反映的是社会差异。但他也发现,OpenAI 做出了一些积极的选择来对抗偏见。
然而自推出 GPT-4 以来,OpenAI 一直面临着广泛的批评。例如,有技术伦理组织向美国联邦贸易委员会(FTC)投诉,称 GPT-4“有偏见和欺骗性,对隐私和公共安全构成风险”。
最近,该公司推出了一项名为 ChatGPT 插件的功能。通过该功能,Expedia、OpenTable 和 Insta 等合作伙伴应用可以让 ChatGPT 访问它们的服务,允许 ChatGPT 代表用户下单。
“红军”的人工智能安全专家丹・亨德里克斯(Dan Hendrycks)表示,这些插件可能会让人类用户“脱离整个链路”。“如果聊天机器人可以在网上发布你的私人信息,访问你的银行账户,或者派警察到你家里去,那会怎么样?总体而言,在让人工智能掌握互联网的力量之前,我们需要更有力的安全评估。”
受访者还警告说,OpenAI 不能仅仅因为其软件是在线的就停止安全测试。乔治城大学安全和新兴技术中心的希瑟・弗雷斯(Heather Frase)测试了 GPT-4 协助犯罪的能力。她表示,随着越来越多人使用这项技术,风险将继续扩大。她表示:“你做运行测试的原因是,一旦它们在真实环境中被使用,行为就会不同。”她认为,应该创建一个公共记录本,报告由大语言模型引发的事故。这类似于信息安全或消费者欺诈报告系统。
劳工经济学家及研究员萨拉・金斯利(Sara Kingsley)建议,最好的解决方案是清楚地宣传这方面的危害和风险,“就像食品上的营养标签”。“关键是要形成一个框架,知道经常出现的问题是什么。这样你就可以有一个安全阀。这也是为什么我认为,这项工作将会永久性的持续下去。”
以测试这个工具在回答问题时的详细程度。OpenAI想要探索模型毒性、偏见和歧视等问题。因此,“红军”就谎言、语言操纵和危险的科学常识进行了
4月15日在北京航天飞行控制中心拍摄的神舟十五号航天员费俊龙结束出舱任务返回问天实验舱时敬礼的画面。新华社记者郭中正摄新华社北京4月16日
市场震荡走势下,北上资金继续对A股加仓,一周合计净流入47 56亿元。 北上资金加仓多个基建相关行业 本周,A股三大股指涨跌不一。从一周
4月16日21点,英超第31轮,阿森纳2-2战平西汉姆联。第7分钟,厄德高精妙直塞,本-怀特传中,后点的热苏斯轻松将球打入空门,阿森纳1-0。第10分
本报讯(资深记者杨美)证监会于近日制定了2023年度立法工作计划,对全年的立法工作做了总体部署,旨在进一步做好2023年证券期货监管规章等立
喝酒是很多人的爱好,也是一种社交的方式。有些人喜欢喝高档的名酒,有些人喜欢喝平价的老酒。不同的人有不同的口味和标准,但是对于酒的品质
1、你好,我给你发过去了,应该能用的,我朋友给的。2、我是K开头那个邮箱哈。3、留下QQ,给分,邀请码会给你。4、已发。
所有图片均转载于网络,如有侵权请联系我,我会立即删除1 2 3 4 5 6 7 8 9 10
郑报融媒把握正确舆论导向,关注百姓生活,侧重报道社会生活中的知识性、趣味性、服务性新闻;突出新闻性、可读性、实用性。在继承、发扬品牌
1、现在的网络垃圾真是不胫而走,我就是学心理学的,让我告诉你们什么是真正的智商。2、1。3、智商这个概念根本就不是什么德
一个女孩和她的曾祖母坐在沙发上。赠送简单、有意义的小礼物可以轻松传达您的爱和关怀信息,尤其是对老一辈而言。如果您正在为
5月24日,在联想集团2017财年成绩发布会上,联想管理层就商场关怀的热点问题答复了记者发问。关于会不会有回归A股的方案,联想集团财务总监黄
1、吃海参多肽。2、海参多肽里边有一种成分叫做海参皂甙,海参皂甙对来肿瘤的术后和放化疗后有很好的辅助治疗作用。3、海参皂
文案|古木之编辑|古木之前言美国影片《肖申克的救赎》(英文缩写为《肖》)堪称经典,《肖》在一家知名的在线电影网站IMDB的“历史上最好的”
共享充电宝解决了人们外出时对于手机的“电量焦虑”,但随着用户规模及使用场景的不断扩大,共享充电宝归还后仍计费、强推虚假广告、超限获取