Emma McGowan2024年2月14日
最近,Mozilla的一份报告发现,浪漫AI聊天机器人的迅速崛起造成了一系列新的隐私问题。
自1960年代以来,AI浪漫伴侣在流行文化中就已经存在了。从《我的生活娃娃》中全功能的机器人“Rhoda Miller”到2013年电影《她》中斯嘉丽约翰逊所配音的无形声音,几代人来都在共同梦想著人工智能能满足我们所有的情感需求。而如今,随著生成AI的发展与推出,这个梦想似乎终于要成为现实。
但这真的是梦想吗?还是我们在不知不觉中走入隐私的噩梦?这正是Mozilla研究团队在其最近的浪漫AI聊天机器人隐私特别报告中所探讨的问题。
研究结果令人震惊,在测试的11款聊天机器人中,有10款未能达到Mozilla的最低安全标准。这意味着,这些机器人不仅不要求用户创建强密码,还未能妥善处理任何安全漏洞。有估计显示,谷歌Play商店的下载量超过1亿,加上OpenAI最近开放的应用商店已开始涌入浪漫聊天机器人,这一重大问题只会越来越严重。
但这份报告并不仅仅关乎数字;它还涉及到这些结果可能带来的重大隐私影响。以Replika AI为例,根据Mozilla的说法,使用者正在一个不仅记录这些信息,还可能将其出售给数据经纪人的应用程序上与其“AI灵魂伴侣”分享他们最亲密的想法、感受、照片和视频。该应用还允许用户以“111111”这样的弱密码创建帐号,使所有这些敏感信息面临被攻击的风险。
Calder表示,尽管这些隐私和安全漏洞已经“让人毛骨悚然”,但某些机器人还声称能帮助用户的心理健康。她以Romantic AI为例,指出其条款与条件中写道:
“Romantic AI既不是医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专家能做到这一点。Romantic AI不对该服务提供治疗、医疗或其他专业帮助作出任何声明或保证。”
然而,他们的网站上写著“Romantic AI致力于维护您的心理健康”强调是他们的语气。虽然我们没有数据来比较多少人阅读了条款和条件与有多少人访问了网站,但可以肯定的是,很多 更多的人接收到了网站的信息,而非这项声明。
在心理健康的说法和顾客自愿与其数位“灵魂伴侣”分享的个人信息之间,Calder担心这些机器人可能轻易操控人们做出他们本不会去做的事情。
“有什么能阻止坏人制造旨在了解其灵魂伴侣的聊天机器人,然后利用这段关系操控这些人做出可怕的事情、接受可怕的意识形态,或者伤害自己或他人?”Calder表示。“这就是为什么我们迫切需要这些AI应用更多的透明度和用户控制。”
黑洞加速器官网所以,尽管AI聊天机器人承诺提供陪伴,但目前的情况距离《她》中的理想状态还相差甚远:现实揭示了一个残酷的事实,使用者的隐私是加入的代价。是时候让使用者、开发者和政策制定者共同要求在AI关系中追求透明度、安全性和尊重个人界限。只有这样,我们才能希望在不妨害自己数位身份的情况下安全地探索这些数位伴侣的潜力。