随着通用人工智能的普遍应用,AI与社会生活变得紧密相连,由AI引发的问题也层出不穷,对于AI应用的监管也逐渐成为人们讨论的热点。AI应用由谁监管,不同的人有不同的意见,但针对AI进行立法成为普遍的共识。
作为AI开发的技术团体或企业,被认为要肩负起AI监管的首要责任,但也有人认为,个别AI开发团队虽然能力很强,但研发人员被局限于自己所负责的内容,可能无法充分了解他们正在创造的智能机器的潜在后果,也就无法起到真正严格意义上的监管作用。
企业能担起AI监管责任吗?
作为大语言模型开发商ThirdAI的产品主管,Vinod Iyengar不认为开发团队会对研发产品的潜在后果毫无意识,但他也表示,研发工作的密集特性可能在一定程度上导致研发人员会被蒙蔽。Vinod Iyengar提到,参与研究的人员并非被有意限制于所负责的内容,从而导致无法了解整个系统的全貌,只是开发如此复杂的一个系统,人们总会在自己专业的领域关注一些狭隘的视角,而没有考虑整体影响。
然而,Iyengar对于AI研发团队的监管作用持怀疑态度,越是大型的AI研发团体或企业,会更注意避免员工在公开场合对AI前景发表“不合时宜”的意见,例如去年6月,因Bard回应ChatGPT可能已经具有自我意识,研发人员表示对此感到担忧而被谷歌开除。
当技术巨头以知识产权为托词,禁止员工进行讨论或发表真正的意见时,这才是真正令人担忧的问题
Vinod Inyengar
Iyengar并不担心AI研发企业会对外界的担忧充耳不闻,令他更为担忧的是大语言模型训练过程的不透明化。他提到“AI模型训练与其他技术的最大区别在于,训练过程是不透明的,你无法预知结果。“
就像给一个小孩传授大量的信息,并定期对他进行测试,你无法得知他是否已经综合了这些信息去获取新的知识,甚至对世界本身产生了自己的想法。
除了测试的内容外,你不知道这个小孩是否已经学会了其他技能,所以研发人员常常会惊讶于AI突然学会了处理编程问题,拥有了整合复杂思路的能力,亦或是能够对模棱两可的问题提供一系列想法。
Vinod Inyengar
AI监管存在什么问题?
Words.Tel为企业提供AI生成服务,其创始人Giancarlo Erra对训练过程的不透明化并未表示担忧,他更为关注的是监管政策的影响。
监管人员可能是政府,也可能是企业,但我们在讨论监管责任时,我们也在创造另一个问题:谁来决定监管的政策?在监管过程中,我们会人为阻止AI往当前无法预知的方向发展,但是否也阻断了AI向真正可用的方向发展呢?
与决定谁来监管相比,这些衍生问题是更大、更明确的问题,不能用一揽子解决方案来解决。
Giancarlo Erra
参考源文:
AI regulation: who should be in charge?
- 3CX 推出多租户功能
- Microsoft Teams 最新性能 | 2024 企业连接版(七)
- Microsoft Phone Link 即将让你从图像中提取文字
- 在 Teams 中使用 Microsoft Copilot 有效总结渠道对话
- 带桌面电话控制功能的全新 3CX Windows BETA 版软电话