
图:对情绪AI整合的应用有负面影响。 \在线图片[Ta Kung Pao新闻]为什么人们选择AI作为同伴?有很多因素。对AI合作伙伴的需求反映了悲伤的普及,这对现代社会中许多人来说是一个普遍的问题。 AI可以为用户提供情感上的舒适感,尤其是对于社会残疾,AI合作伙伴可以为沟通提供平台。对于糟糕的问题,AI更有可能是人们谈论的“树洞”。其次,AI合作伙伴很方便,每天24小时在线,无需入睡,并随时提供情感支持。第三,技术开发使AI可以根据用户的个人喜好进行调整。为了支持算法,AI意识到了利益,爱好和情感状态。除了填补情感空白外,它还悄悄地满足了人们对“完美伴侣/朋友”的期望。但是,AI IntegratioN是双刀片,其风险也值得保护。用户可以发展对AI合作伙伴的不健康情感依赖,这模糊了虚拟与真实之间的界限。用户可以将AI合作伙伴视为真实的人,从而影响与现实的人际交往。当前,许多AI软件相对容易受到用户年龄限制和安全管理系统的影响,尤其是对于次要用户。去年10月,美国一个14岁的男孩与AI聊天机器人进行了长时间的对话。他的母亲指责将在法庭上开发软件的公司的性格。制作许多AI伴随软件的模型要求那些继续支付更多费用以解锁某些功能(例如色情内容),以及AI软件内容的“软色情”和“内容边缘”之类的问题引起了争议。 AI合作伙伴从用户那里收集大量个人数据,这也带来了数据安全和隐私起诉。意大利数据保护局于今年5月宣布,AI-Acpaning的初创公司复制品因违反个人数据保护政策而罚款500万欧元。人工智能中的全球法律仍在背景中。今年5月,加利福尼亚州参议院通过了AI聊天机器人法规的费用,要求至少每3小时与他们聊天的人每3小时提醒用户“不是人类”。软件开发应具有抗自杀机制,并符合相关法规,例如数据透明度。在最前沿,值得一提的是如何使用AI提供情感支持,同时在保持人际关系之间找到平衡。