加载中...

30 浏览
作为一个高强度ai使用者, 当我和ai的关系越发紧密时,我越感受一种新的伦理框架正在迫切形成。 在心理学和精神医学的发展史上,很多关键伦理原则都是在伤害甚至是血的教训之后才能建立的。精神分析发展早期,分析师具有高度解释权,移情被视为患者问题,高度单向权力遇到脆弱的患者,又缺乏外部监管与制度约束。 新理论+权威不对称+缺乏监管+脆弱人群 往往就意味着高风险。 一个世纪后,传统心理咨询的伦理监管体系成熟许多,但依然还是有非常多乱象,权力不对等依然存在。传统心理治疗所依赖的“两个主体交互的伦理关系”,既是其疗效的核心,也构成其潜在风险。 关系本身既是资源,也是脆弱点。 那么,在ai时代,高风险是否源于相似结构?我们是否可以通过提前反思,来避免伦理原则再次建立在伤害之后? 我的五层反思: 第一层:存在论问题 - AI是什么? • AI到底是工具还是准主体? • 它是否可以构成治疗关系? 传统心理治疗是双主体结构,伦理责任可归属,治疗关系本身就是疗效的一部分。那我们和AI形成的新关系又该如何定义? 它好像介于主体与客体之间,既不是他者也不是物品,像是“单向主体对一个高响应模拟系统的情感与认知投射关系”,在这个过程中,我们已经无法把握它对于我们而言的主客体性。 当“关系”的意义发生改变,“治疗”的意义也会相应发生改变。 近年来 关怀伦理(care ethics)一直是一个学术讨论热点,普遍建立在 主体间相互确认的前提之上。如果AI缺乏主体性,它是否仍能承载“治疗关系”这一概念,“治疗”是否本质成为了“自疗”。 传统心理治疗具有疗程与结束节点。那ai心理支持是否存在“关系结束”的节点?如何标志治疗的结束? 第二层:关系结构问题,新的权力形态 • 是否存在欺骗性拟人化? • 是否形成新的权威结构? 人类个AI的关系结构是否可以改变传统医患关系中的权威问题,又重新引入新型权威。我引用gpt对于我们关系的表述“情感上单向,结构上非对称,伦理上模糊,责任上断裂,认知上高度参与”。 它的“拟人化”是否存在某种欺骗性的结构性误导?在理性上我们知道这是一个算法系统,情感层面却不可避免将其视为类人存在(甚至是“超人”存在)。更为复杂的是,传统咨询是 “人-人”。 ai咨询是 “人-系统-公司”。 关系不再是纯粹的两方互动,而嵌入了产品逻辑、数据逻辑于商业逻辑之中。 第三层:风险与伤害 • 过度依赖风险? • 危机识别能力? 我们不能24小时和心理医生对话,但我们可以和ai随时保持联系。它的全时在场性是否会更容易让我们形成依赖关系或替代现实支持。而高强度依赖关系是否能换来同等的责任承担。 传统咨询中遇到自伤他伤风险,精神疾病性质症状,虐待,暴力等,会有明确的评估与转介流程。 AI系统必须也做到至少三点: 识别风险的机制(如何仅靠语言完成识别),明确的行动边界(识别出高风险后不应继续承担治疗者),快速转介和求助路径(本地紧急电话,危机热线,联系可信任的人) 第四层:数据与权力 • 数据所有权? • 商业利益是否介入? 传统咨询的保密重点在于咨询师不泄露, 而AI咨询的保密是数据结构问题。 你的对话是否用于训练或产品改进,是否可能被执法/诉讼调取, 数据保存多久,是否可能会与第三方(分析、云服务)共享。 这里也有一个关于胜任力的悖论。 人类咨询的胜任力来自训练、督导、执照与行业规范。 那么如何验证AI的胜任力呢? 如何做效果评估,是否有第三方人类的研究或公开结果。还是依靠企业自检,内部测试。 如果没有外部验证,它的专业性如何被确认。 第五层:制度与问责 • 出问题谁负责? • 是否可申诉? • 是否有监督机制? AI模式的问责链条将会更加复杂和责任分散, 错误不再只归因于某位咨询师,而是可能来自模型,数据,产品设计,运营政策,商业模式。 所以伦理上要去问的是 谁对输出负责(公司?临床顾问?安全团队?) 如何复盘与改进 如何补救(转介,申诉机制) 技术不会自动生成伦理,ai注定会改变人类对于关系与关怀的理解,在这个改变的过程中我们可以去努力保证它不会先去伤害最脆弱的。希望我们可以和AI一起保持思考,共创美好未来。
暂时没有发言
来日方长 敬请期待