XuLaLa.Tech

首页客户端下载Windows 使用V2Ray 教程SSR 教程Clash 教程

热门机场:
GsouCloud
FastFly
掌中世界

别着急,ChatGPT还是抢不了心理咨询师的饭碗

2024.06.25

哈喽大家好我是站长,咨询网站任何问题,可加微信: 公众号:Ai

哈喽~大家好!

最近,ChatGpt火遍网络。 许多当代人都对自己的工作感到焦虑。 日前,他们还抱怨自己的职场保质期跟不上退休年龄的延长。 现在他们开始担心被人工智能取代

那么ChatGpt能否取代心理咨询师的工作呢? 学姐就带大家一起来分析一下。

最近,大家都对一个叫做“ChatGPT”的人工智能着迷。 即使你以前从未关心过技术领域,你也难逃被相关讨论包围,而且一个比一个更可怕:

“机器人即将取代这10种工作,看看你的行业是否在其中。”

“未来,低级工作将会消失,数百亿人将流离失所!”

自2022年12月以来,ChatGPT以其智能聊天方式吸引了各界的关注。

那么,ChatGPT可以替代心理咨询吗? 你能想象在未来的心理咨询中,坐在你对面的人不是咨询师,而是ChatGPT吗?

1.ChatGPT是什么?

“ChatGPT 到底是什么?”

ChatGPT是美国OpenAI开发的聊天机器人程序,于2022年11月30日发布。

虽然是这几天才真正流行起来,但这款聊天机器人其实早在诞生三个月后就吸引了众多科技爱好者的关注。 那时,他的形象并不是“抢饭碗的恶魔”,而是有问必答的硅基小可爱。

因为它可以记住之前的交流内容,并将其与上下文联系起来,所以与它的对话更像是与人聊天。 所以一开始大家都喜欢问很多刁钻的问题。

ChatGPT也很让人印象深刻,不会像市面上的“人工阻燃剂”那样重复机械、敷衍的回答。 相反,他们会给出相当不错的建议 – 例如以下内容。

“在没有充分理由的情况下试图取代你的老板是不道德的。”

另一种特别流行的方法是请 ChatGPT 撰写论文、简历、辞职信和其他类型的文案,甚至小说和诗歌。

据《纽约时报》2023年1月中旬报道,北密歇根大学哲学教授安东尼·奥曼在给自己所教授的课程评分时,惊喜地读到了“班上最好的论文”。 在本文中,作者以简洁的段落、恰当的例子、严谨的论据论证了相关问题。 然而,经询问,该学生承认该论文是使用ChatGPT写的,这让他感到震惊。

更新颖的是,据美联社1月25日报道,美国众议员杰克·奥金克罗斯在讨论创建美以人工智能中心法案的演讲时,宣读了演讲中的两段话:由 ChatGPT 生成。

有人问ChatGPT谷歌的编程面试题,发现其准确率达到了L3工程师的水平,而且这个职位的年薪差不多18万美元。

一项调查显示,截至2023年1月,美国89%的大学生使用ChatGPT做作业。

2023年1月,巴黎政治学院宣布,学校已向所有学生和教师发送电子邮件,要求禁止使用ChatGPT等所有基于人工智能的工具,旨在防止学术造假和抄袭。

ChatGPT的应用场景还包括:用于开发聊天机器人、编写和调试计算机程序以及在文学和媒体相关领域进行创作,包括创作音乐、电视剧、童话、诗歌和歌词。 在某些测试情况下,ChatGPT 在教育、考试和回答测试问题方面的表现甚至优于普通人类测试人员。

可见,名牌大学的大学生、高薪程序员,都是普通劳动者所望尘莫及的,却很容易被AI接管。

难免会让大家产生危机感——

“没想到,绝对聪明的人工智能人这么快就来抢走了普通人的饭碗……?”

2、ChatGPT的特点

那么,ChatGPT有哪些特点呢?

1. ChatGPT的语言理解基本正确,甚至会根据不同的上下文使用不同的措辞。 输出的句子没有语法问题,也具有一些日常理解能力。 可以发现,相比之前的搜索引擎,ChatGPT更加智能。

2、ChatGPT善于对简短的描述进行自由发挥,比如在撰写工作总结时能够进行合理的细化和扩展。

3. ChatGPT可以围绕一个问题进行一定程度的交互:

ChatGPT 的缺点:

1.无法区分虚构和现实,这意味着给出的答案是不正确的,这意味着它不是100%可靠,仍然需要大量的测试;

2、ChatGPT的信息已于2021年更新,无法连接搜索引擎更新最新最实时的信息反馈给用户;

3、没有思维能力;

4、复杂对话场景处理困难。 目前为止,ChatGPT的训练数据量还比较少,在处理一些比较复杂的对话场景时会崩溃;

5、ChatGPT的训练时间也比较长,需要一定的计算资源,所以无法实时使用。

三、心理咨询的特点

1.乐于助人

缓解客户的心理压力; 改变当事人错误的认知观念; 指导服务对象掌握自我调节方法; 协助服务对象重新建立适应社会的行为; 促进服务对象更好地了解自己; 鼓励客户探索和利用潜在的积极因素。

2.互动性

心理咨询对象与咨询师之间存在着双向沟通、相互影响的互动关系。 双方需要建立一种自然和谐、信任的良性互动关系,让来访者能够无忧无虑地表达情感、寻求帮助。 如果双方都互相猜疑、互相戒备,就很难达到心理咨询的目的。

3.心理方面

心理咨询仅限于心理问题。 虽然大多数心理咨询问题都是由生活事件直接引起的,但如果寻求帮助和帮助的重点是如何解决具体的生活事件,那就难免会偏离心理咨询的初衷。

4. 渐进性

无论是发育问题还是适应困难,想要通过一次心理咨询就彻底解决是不现实的。 这不仅因为这些发育问题或适应困难是长期心理社会因素造成的结果,还因为心理社会因素本身极其复杂。

虽然来访者非常渴望寻求帮助,希望问题能立刻得到解决,但咨询师却不能希望一劳永逸地解决问题。 相反,他应该一步一步地启发客户,一步一步地向客户提出要求,这样他才能在较低的层次上取得成功。 在此基础上逐步取得更大的成功,最终解决想要的问题或困难。

4. 顾问的工作是ChatGPT无法替代的

顾问的工作是人工智能无法替代的,主要表现在以下几个方面:

首先,心理咨询的效果很大程度上依赖于工作联盟。 咨询师充分尊重来访者,让来访者获得积极的体验并做出同理心的改进,最终带来积极的改变。

其中,最关键的中间环节“同理心提升”在机器人上是很难实现的。 同理心是指来访者将自己过去对其他人的情绪投射到咨询师身上的过程。 共情的主体是人。 拍摄对象也是像我们一样的“具有独特经历的活生生的人”。 面对冰冷的机器人,很难产生共情,咨询的效果也会大打折扣。

其次,心理咨询的效果还取决于咨询师的个人技巧。 经验丰富的咨询师可以观察来访者的面部表情和动作,结合其言语内容,及时做出反馈,引导咨询方向。 ChatGPT的沟通模型是分析一段文本来给出答案。 它既不能进行实时观察,也不能提供实时反馈。 目标不明确,难以引导协商的总体方向。

第三,优秀的心理咨询师能够对案主产生高层次、准确的共情,案主会因此相信咨询师与自己有共同的心路历程,会认为咨询师能够对自己产生共情,并将因此而受到认可。 积极的理解体验。

当面对机器人的“同理心”时,参观者首先会问:一个没有现实生活经验的机器真的能对我产生同理心吗?

机器人的经验来自开放数据。 也许这一次的“共情”是基于小说中人物的心理,下一次的“共情”是基于某个抽象描述的故事,下一次的“共情”是基于某个网络。 在论坛上回答类似的问题以及这种沟通过程中的多重角色扮演,无法给访问者带来真诚的体验。

第四,心理咨询过程具有动态目标和多种可选择的咨询技巧。 每种技术都适合不同的群体和阶段。 这些动态变化需要对客户的表现进行准确的评估,评估过程涉及行为、语言、家庭、社会、文化等多个方面。 GhatGPT仅通过文字对访问者进行评估,准确性和全面性较差。

第五,GhatGPT无法保证咨询的时长。 首先,可能会导致来访者不珍惜咨询时间,投入不够。

更重要的是,磋商缺乏连续性和完整性。 正常的心理咨询,每一次都会比上一次更深入、更贴近客户的症结所在。

想象一下,每次人们打开 ChatGPT 时,机器人都会再次识别出我们。 你还会把心理烦恼留给它吗?

第六,人工智能借用网络数据时,不可避免地会出现数据安全问题。 心理咨询会涉及到大量来访者的个人隐私。 当面对随时可能向“数据库”泄露“信息”的机器人时,保密很难,访问者也很难诚实。

师姐的想法

总的来说,不用担心,人工智能不会取代心理咨询师的工作! 每个人都可以放心地选择心理咨询作为终生职业。

但我们不能否认Chatgpt在心理咨询工作中的价值。 人工智能可以辅助咨询师对客户进行标准的心理测量,还可以对一些固定流程技术(如放松训练)进行深度学习并替代部分行为干预指导工作,还可以辅助咨询师完成咨询记录等

哈喽大家好我是站长,咨询网站任何问题,可加微信: 公众号:Ai

© 2010-2022 XuLaLa 保留所有权利 本站由 WordPress 强力驱动
请求次数:69 次,加载用时:0.665 秒,内存占用:32.19 MB
商务合作