文章

如何为使用生成式人工智能加上“防护栏”?

发布日期:2023-10-12 09:39:35   来源 : 浙江社协文化    浏览量 :139
浙江社协文化 发布日期:2023-10-12 09:39:35  
139


生成式人工智能(Generative Artificial Intelligence,又可以称作AICG,即Artificial Intelligence Content Generation),是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。今年大火的ChatGPT即属于此类技术。


△2022年,由Midjourney生成的画作《太空歌剧院》击败人类选手获得大赛的冠军,ChatGPT的横空出世在全球掀起大模型浪潮。


对于生成型人工智能,预先编制一套清晰的指南是很重要的,特别是在这个领域中,存在着许许多多不确定的因素(例如它的局限性和潜在的缺点)。协会如何才能构建起一道强有力的“防护栏”,以保证科技的效率和伦理价值?这份来自国外的专家的分享对您可能有一定的借鉴作用——



虽然生成式人工智能及其用途是许多组织最为关心的问题,但协会专业人士对该技术的道德使用和影响的担忧也不断涌现。


Salesforce曾对500多名高级IT领导者开展了一项调查,发现大部分人对使用生成式人工智能的道德影响存在担忧。同时,30%的受访者表示他们需要一些特定的伦理规范才能在业务中成功实施该技术。


图源:pixabay


Fíonta公司联合创始人兼首席增长官丽莎·劳撰文指出,人工智能的道德使用不仅仅是合法使用人工智能,还包括对基本价值观的尊重。要想更好地运用这种技术,协会必须对这种手段所能带来的策略性价值进行评价,并且为它的用法和用途制定出相应的方针政策。


制定一系列关于安全策略、执行人员评审、批准与禁用的准则的指南,让这些准则帮助协会以符合伦理的方式来应用技术。


01

确保机密信息的安全

Artificial Intelligence Content Generation


丽莎·劳毕业于加州大学伯克利分校(UC Berkeley)的计算机科学专业,是学院人工智能实验室(BAIR)的首届毕业生之一。她不仅在人工智能方面有很高的造诣,在非营利技术领域也是一位颇受欢迎的思想领袖。



丽莎·劳指出,生成式人工智能的最大问题之一是数据信息的安全。当数据被用于完善大语言模型*(参见注释1)或其他底层模型时,很可能会产生问题——这种保密信息可能会由于存在安全缺陷或者模型提供商没有对其进行约束而被滥用。即使是非机密信息,在与模型中已有的其他信息结合后,也可能变成机密信息。


她提到,处理这些问题的指南可以包含禁止将有关数据上载到任何模型,或强制要求使用保密计算*(参见注释2)。其他保密问题还涉及人工智能生成材料的所有权(如果来自于受保护的来源),以及用户输入(包括问题、提示或任务)的隐私问题。此外,如果用户的问题或任务将被纳入公共使用模型,那么至少要提醒一下用户。


“包括如何处理机密信息的政策也应该成为协会透明度工作的一部分。你要确保不会把用户的问题泄露给技术人员,从而让组织外的人也能获取这些信息。”

注释

*1 大语言模型Large Language Model,LLM),一种能像人类一样理解和生成文本的深度学习模型。


*2 使用被称为可信执行环境Trusted Execution Environment,TEE)的隔离加密环境来运行生成式人工智能基础设施。



02

采用人工审核

Artificial Intelligence Content Generation


生成式人工智能可以生成许多主题的信息,但你如何验证这些资讯内容的真实性(准确性)呢?


丽莎·劳的建议是——把人工审核纳入到人工智能指南中,安排在生成响应或完成任务与将其提供给使用者或用于工作产品的过程中。举个例子,协会可以在会员服务中以提出答案供员工选择的方式来使用生成式人工智能,前提是,能够确保向会员或其他外部受众提供输出之前,始终保留一道人工审核的程序。


在使用生成式人工智能技术创建书面内容时,协会可以使用事实核查人员、文案编辑或校对人员来验证其真实性。为避免发布不准确的内容,工作人员应通过联系来源来核实ChatGPT生成内容的出处。为保证效度,可以采用“三角互证法”(triangulation)——咨询至少两到三个不同(可信度较高的)来源,交叉确认。


More


*推荐的可信来源包括信誉良好的新闻媒体、学术文章、政府出版物或行业报告,以及Snopes、FactCheck.org或PolitiFact等事实核查网站。



03

确定授权使用和监督

Artificial Intelligence Content Generation


丽莎·劳同样提到,指南应涵盖协会本身应如何使用这些技术。此类政策应包括员工或志愿者的领导者在何种情况下适合使用生成式人工智能——是出于研究的目的?或是为了与会员和合伙人交流?


她补充道,协会应围绕有关该技术的禁止性活动制定指南,特别要说明哪些行为构成骚扰或非法使用。例如,永远都要对科技表示尊重。另外,当说明技术是怎样被运用的时候,协会应该再次重申他们的价值观、实践以及他们的信仰。协会的员工必须经过培训,以了解有关技术的应用及辨识可能发生之危险。


图源:pixabay


最后,丽莎·劳表示,“合乎道德的方法意味着对会员和员工保持透明的价值观,提供监管是至关重要的。仅仅只是宣布‘这是一项培训和一项政策’是远远不够的。你要对那些工具的使用情况进行审核,这样你才能知道人们是否遵循了指南。”



END



注:本文由社协文化翻译整理,原文刊载于associationsnow.com,作者Hannah Carvalho(详见“阅读原文”)。

联系我们
如果您对我们的服务或者其他方面有任何疑问,请将建议填写至下表,我们会第一时间与您取得联系
快捷链接
公司信息
联系电话:
邮 箱:
关注我们
扫码了解更多
浙江社协文化发展有限公司 ZheJiang Association Management Co.,Ltd.
免责声明:本站部分内容来源于网络与网友投稿,如发现侵权内容请联系客服我们将尽快处理
地 址:
Copyright ©2019 社协
云计算支持 反馈 枢纽云管理