火鹰视角

关注互联网,关注技术开发,透析与分享移动互联网行业最新动态
当前位置: 网站首页 > > ChatGPT法律规范与伦理问题,王春晖传授你正确看待的角度!

ChatGPT法律规范与伦理问题,王春晖传授你正确看待的角度!

时间:时间: 2023-05-25 10:50:57   阅读: 分类:APP开发
生成式AI面临技术规范还是伦理问题?国家网信办公布《生成式人工智能服务管理办法(征求意见稿)》!
生成式AI面临技术规范还是伦理问题?国家网信办公布《生成式人工智能服务管理办法(征求意见稿)》!

最近,国家网信办公布了《生成式人工智能服务管理办法(征求意见稿)》。这份文件旨在就类似ChatGPT等基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术进行相应规范。按照《生成式AI意见稿》的要求,我国支持人工智能算法、框架等基础技术的自主创新、推广应用和国际合作,同时鼓励采用安全可信的软件、工具、计算和数据资源。此外,《生成式AI意见稿》还提出了五项要求,包括遵守法律法规、尊重社会公德、公序良俗、防止歧视和虚假信息、防止伤害他人身心健康、防止侵犯肖像权、名誉权和知识产权等。

然而,笔者认为,在生成式AI的发展进程中,其最大问题不是技术本身,而是生成式AI的技术伦理和法律问题。因此,《生成式AI意见稿》应当增加生成式AI相关伦理规范的规定,特别是在生成式人AI全生命周期各环节自省自律,并加强生成式AI问责机制。生成式AI的伦理不仅涉及科学研究,也包括成果应用中的伦理问题。

这份《生成式AI意见稿》是对人工智能管理的一次重要探索,使生成式AI技术得以更好地服务于人类社会,同时也为我们提供了一个思考科技伦理和法律的契机。


生成式人工智能引起全球关注:ChatGPT安全风险引发AI专家出手!

人工智能技术的爆发期已经到来,尤其是生成式AI(Generative AI),它利用算法、模型、规则生成和创建新内容,可用于代码生成、文本问答、图像生成等。然而,随着ChatGPT等生成式AI的应用日益广泛,人们开始关注安全风险问题。

最近,非营利组织人工智能与数字政策中心(CAIDP)向美国联邦贸易委员会(FTC)投诉称GPT-4存在“有偏见性、欺骗性,对隐私和公共安全构成风险”,并违反了FTC法案第5条。同时,1000多名科技专家签署的一份公开信也引起了全球广泛关注,呼吁暂停大型人工智能研究,为期至少6个月,并建议各大企业、机构共同开发适用于AI研发的安全协议。

作为AI领域的企业家、学者、高管,这些AI专家认为,虽然AI技术在很多领域已经取得了很大的进展,但这些进展也带来了一些潜在的危险。他们担心,超强的AI可能在未来对人类产生威胁,因此需要对这项技术进行更加深入的研究和探讨。此外,公开信中还提到了AI技术可能给社会带来的影响,包括取代很多人类工作、导致失业率上升以及对社会的隐私和安全造成威胁。

可以看出,生成式AI的安全风险问题已经引起全球高度关注。笔者认为,加强对AI技术的监管和控制、制定适用于AI研发的安全协议是必要的,只有这样,人工智能才能更好地服务于人类,而不是对人类产生威胁。


ChatGPT威胁社会结构,教育界已公开抵制!

ChatGPT作为生成式AI的杰出代表,已经成为人工智能领域的热门话题。然而,其应用正在对社会结构构成真实而迫在眉睫的三大威胁。

首先,ChatGPT需要获取足够多和准确的知识与信息来保证良好的用户体验,但许多信息涉及国家机密、商业机密和个人隐私,获取和利用这些信息本身存在合法性问题。其次,ChatGPT被学生用于完成作业和撰写论文,对教育界和学术界造成了重大冲击,特别是美国有89%的学生用ChatGPT写作业,目前尚未研究出可准确检测这种作弊行为的技术。最后,ChatGPT的数据输出功能承载着后台技术操控者的话语权,用户越多、使用范围越广就意味着其话语权越大、价值渗透力越强,容易引发意识形态渗透,误导用户,扭曲大众价值观,引起社会动荡,妨害社会公平正义。

为了防止ChatGPT对教育、社会和人类价值观造成进一步的威胁,世界多国教育系统及相关从业者已公开抵制ChatGPT。例如,美国多所大学计划减少居家评估,增加手写论文和口试;纽约、巴尔的摩和洛杉矶的学区叫停了学校管理的网络访问聊天机器人;法国顶尖学府之一的巴黎政治学院也宣布禁止使用ChatGPT。最近,意大利个人数据保护局(DPA)还发表声明,禁止在意大利使用ChatGPT,并指责其违反欧盟《通用数据保护条例》(GDPR),成为欧洲第一个以国家名义禁用ChatGPT的国家。

可以看出,ChatGPT的应用已经引起了全球范围内的关注和抵制。笔者认为,只有各界合作,共同制定可行的监管和控制措施,才能让人工智能技术更好地服务于人类,而不是对人类产生威胁。


科技创新只能造福人类,不能损害生物和破坏环境!

科技创新是推动社会进步的重要力量,但其发展必须遵循科技伦理原则:科技创新和成果只能有益于或最大限度地有益于人、生物和环境,而不能损伤人、损害生物和破坏环境。为此,各国应该建立健全公开透明的AI监管体系,加强生成式AI相关法律、伦理和社会问题的同步研究。

早在2016年,IEEE发布了一份《利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》报告,提出了一个发展人工智能的一般性原则,包括体现人权、优先考虑最大化对人类和自然环境的好处、削弱人工智能的风险和负面影响等因素。这些原则将适用于所有类型的人工智能和自主系统。

建议,各国在研发生成式AI时,需要建立双层监管结构,加强生成式AI行业和企业自律,切实加强惩戒力度,防止数据滥用、算法陷阱、侵犯个人隐私、违背伦理道德等行为。同时,要加强人工智能相关法律、伦理和社会问题的同步研究,建立保障生成式AI健康发展的法律法规和伦理道德框架。

中国的《生成式AI意见稿》为全球探索生成式AI治理提供了有益借鉴,各国应积极构建生成式AI相关法律、伦理和社会问题的国际合作和交流平台,推动形成具有广泛共识的生成式AI伦理国际治理框架和标准规范,确保生成式AI在伦理规范和法律框架下健康发展。

火鹰科技-移动应用开发/app开发/小程序开发
客服咨询
立即报价
热线电话
扫描二维码
返回顶部