人工智能的公众信任与隐私保护
关键要点
新的人工智能模型能有效检测早期胰腺癌,这将拯救数千人的生命。尽管AI技术有所进步,但公众对AI的信任度几乎下降到历史低点。大公司需通过改善数据隐私政策来重新赢得公众信任。透明的沟通和尊重用户的数据权利将是关键。今年早些时候,Mayo Clinic的研究者报告称,一种新的AI模型已经成功展示了其检测早期胰腺癌的能力。
这样的发展意味着人工智能将拯救数千条生命,并为社会带来切实的好处。然而,公众对于AI的警惕程度比以往任何时候都要高。
根据一项七月的MITREHarris民调,只有39的受访者认为今天的AI是安全和可靠的,这一比例相比于2022年11月同样民调的48显著下降。这个不期而至的变化与OpenAI在2022年11月推出的ChatGPT 息息相关。
根据报道,ChatGPT的运营成本大约为每日70万美元每年约25亿美元,它属于大型语言模型LLM,只是生成式AI的一种特定应用,而不是生成式AI所能实现的更高级别的技术。开发和运营真正的生成式AI技术需要巨额资金。
这将成为进入市场的门槛,意味着大部分的AI重大研发将来自像谷歌、Meta和微软这样的大型科技公司,这些公司已经在AI研发方面投入重金。

这就引出了一个问题:消费者对大型科技公司的信任度持续下降。然而,社会不能让这样的担忧阻碍AI的创新和发展,因为它有潜力带来改变世界的先进技术。
这意味着大型科技公司必须重新获得公众的信任,而其途径之一就是通过改进数据隐私的做法,这正是信任缺失的主要原因所在。
加强与用户的沟通
行业可以从把隐私政策视为一种对话开始,而不是一套模板。自2018年欧盟《通用数据保护条例》GDPR生效以来,几乎每个网站都通过建立cookie横幅和更为公开的隐私政策来适应法律要求,以便迅速获得用户对数据处理的同意。
这并没有产生透明的隐私做法,反而催生了“cookie疲劳”,大多数人会毫不思考地自动点击这些通知。平均而言,隐私政策字数在2500到4500字之间,且充满复杂的法律术语,谁会责怪这些人选择草草了事呢?
从事AI业务的公司需要发布更简短、内容更有实质性、更加透明的通知和隐私政策。采用要点、插图和方便的退出按钮,能够使用户更清楚地了解哪些数据输入到系统中以及每个人的数据所具备的内在价值。
高调的数据泄露事件和大型科技公司出售用户数据的消息损害了公众对互联网的信任,因为当时的科技公司在没有用户同意的情况下,将用户商品化。
大型科技公司并没有故意造成潜在隐私的危害,但消费者依然受到了影响。与用户的有效沟通不仅要告知他们发生了什么,还应包括潜在的最坏情况。这一点在[欧盟的AI法案](https
旋风加速器下载官网